NEW【AWS】AWS基盤調査改善/構築案件
業務委託(フリーランス)
PythonAWSJenkinsGitHub
インフラエンジニア
作業内容 ・AWS基盤調査改善/構築案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-既存のAWS基盤の調査改善
-ETL環境運用作業(テーブル追加、カラム変更程度)
【Live2D/Spine】【新規開発中スマートフォン向けゲーム】キャラクターアニメーション制作案件
業務委託(フリーランス)
UnityAfter EffectsBISHAMON
キャラクターデザイナー2Dデザイナーグラフィックデザイナー
作業内容 新規開発中のスマートフォン向けゲームにおいて、Live2D/Spineアニメーターとしてキャラクターアニメーションの制作をお任せいたします。
具体的には以下の作業を想定しております。
・絵コンテ
・キャラクターモデリング
・アニメーション制作
・外部パートナーと連携してのモデル、アニメーションの監修
【AWS/フルリモート可能】薬局業界向けの各プロダクトのバックエンド開発案件の案件・求人
業務委託(フリーランス)
AWSAzureGoogle Cloud PlatformDevOps
バックエンドエンジニア
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
当社の各プロダクトのバックエンド開発を行って頂きます。
AWSのマネージドサービスをフル活用しながら将来の事業の変化に合わせた技術の選定、設計、実装を進めます。
サーバーレス化、一部機能のマイクロサービス化、開発効率やスケーラビリティなども考慮しつつ、いかに早く効率的にデリバリーしてユーザに使って頂くかのバランスを取るかをチームで決定しながら開発を進めます。
また一方で、医療情報を扱う事業者として、他の分野と比較して信頼性・セキュリティなどに求められるレベルも高く、インフラ構成も含めて実装を進めます。高い信頼性やパフォーマンスを維持しつつ安定して開発を継続するため、アプリケーションコード、AWSのインフラ、DevOps などをより良い形で実装、改善をして頂ける方を募集します。
チーム構成:
・プロダクトマネージャ
・デザイナー
・フロントエンジニア
・バックエンドエンジニア
・薬剤師など
技術環境:
・言語:Python/TypeScript
・フレームワーク:Angular
・インフラ:AWS(Cognito、Amplify、API Gateway、Lambda、RDS、S3)
【Python】インターネット広告データレイク開発案件
業務委託(フリーランス)
PythonAWSDockerGitHub
作業内容 ・インターネット広告代理店業における、膨大な広告データのデータレイクの
開発、運用、保守をご担当いただきます。
・具体的には下記の作業の一部を想定しております。
- 媒体APIを利用したデータの取得、蓄積
- データの加工(ETL)処理
- データウェアハウスへのロード、データマートの提供
【DBエンジニア(SQL全般)】【業務委託(準委任)】バックエンドエンジニア
JavaJavaScriptSQLScalaPostgreSQLSparkAWSSpringBootGlueAurora
バックエンドエンジニア
作業内容 ■概要
バックエンドエンジニアをお任せいたします。
■具体的な作業内容
・ECサイトを構築できるSaaSのサービスで、各サイトからデータを取得し、レポートを出力するためのデータの収集とマイニングを行います。
・ETLやAPIの作成が主な業務になります。
【Python】大手小売業向けアプリケーション開発案件
業務委託(フリーランス)
PythonSparkGoogle Cloud PlatformBigQuery
作業内容 ・大手小売業向けアプリケーションの運用保守、改善開発案件に携わっていただきます。
・作業内容において主に下記作業をご担当いただきます。
-AIモデルの運用保守および改善開発
-GCP上で展開される複数のAIモデルの定期的な運用
-AIモデルにエラーが発生した場合にはその対応
-効果測定
-モデル改善の実装
【AWS】DB構築開発運用
業務委託(フリーランス)
PythonSQLShellLinuxUnixPostgreSQLSparkAWSApacheRedshiftCloudFormationLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
▼概要
WS環境におけるDB構築・開発・運用をご担当いただきます。
・Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発
・クラウド(AWS)を使用した製品利用ログ分析基盤の開発・運用
・AWS EMRを使用したETL, データ前処理 (Python, Spark)
▼作業工程
設計・実装・デバッグ・テスト
▼場所
大崎駅
※8月以降はみなとみらいに移転予定
※基本リモートだが作業開始時には数日出社
※今後、出社メインの可能性あり
▼精算幅
140-190h
▼面談回数
1回
※WEB
▼就業時間
9時30分~18時00分
※昼休み45分
※週5日〜OKの案件です!
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
【AWS/フルリモート可能】エンドユーザー向けAWS ETL環境の設計レビュー・改善・実装・メンテナンスの案件・求人
業務委託(フリーランス)
MySQLDynamoDBSparkAWSApacheGitHubRedshift
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
既存のAWS ETL環境の調査改善
・メンテ作業の手順化、運用作業(テーブル追加、カラム変更程度)
※対象環境は、ミッションクリティカルではないデータ処理基盤となる上位にて他PJへのスライド案件も御紹介可能で御座います。
【AWS】Sagemaker構築運用
業務委託(フリーランス)
SparkAWSGlueKubernetes
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
■概要
AWS環境でSagemaker構築および運用を実施していただきます。
■作業場所:東西線木場駅(初期設定後はリモートを予定)
■精算条件:固定
■打ち合わせ回数:2
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
【AWS】鉄道会社向けアプリ開発
業務委託(フリーランス)
Node.jsSparkAWSLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【作業内容】
鉄道会社向けアプリ開発をご担当いただきます。
・AWSを利用したアプリの改修、小規模開発、運用保守。
-Lambda,S3,RDSなど各種AWSサービスを利用したアプリの機能の改修、小規模開発。
(サーバーサイドはNode.jsがメイン)
-不具合、障害対応
-パフォーマンス改善
-脆弱性診断(定期的に実施)
-セキュリティ対応
【場所】
リモート可/大正
立ち上がりは出社となります。
【精算】
140-180h
【面談】
1回
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
New【Python/SQL】データ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【業務内容】
在庫管理システムを支えるデータ基盤の構築案件となります。
主に、機能改善及び機能追加をご担当頂き、大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【SQLなど】大規模会計サービス/アナリティクスエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLDockerGitBacklogJIRAGitHubTerraform
作業内容 【仕事内容】
・DWH層テーブルの要件定義・設計・開発・保守
関係者からのヒアリング・データ調査メンテナンス性・汎用性を意識したテーブルの設計SQLおよびPySparkを用いた実装 ・DWH層テーブルについての問い合わせ対応・不具合調査 ・DWH層開発環境の設計・開発・保守・運用 【開発工程】 基本設計|詳細設計|実装・構築・単体試験|運用・保守
【環境】
言語:SQL,Python
FW:Apache Spark
環境・OS:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール:Docker,Terraform,JIRA,Github
【DBエンジニア(SQL全般)】【業務委託(準委任)】道路交通系開発案件
作業内容 ■概要
道路交通系開発案件をお任せいたします。
■具体的な作業内容
・Hadoop上で動作する道路交通系システムの開発をご担当いただきます。
■作業工程:詳細設計~結合テスト
【SQLなど】大規模会計サービス運営企業/アナリティクスエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLDockerGitBacklogJIRAGitHubTerraform
作業内容 ・DWH層テーブルの要件定義・設計・開発・保守
- 関係者からのヒアリング・データ調査
- メンテナンス性・汎用性を意識したテーブルの設計
- SQLおよびPySparkを用いた実装
・DWH層テーブルについての問い合わせ対応・不具合調査
・DWH層開発環境の設計・開発・保守・運用
[案件例]
・売上集計用DWH
・機能利用状況DWH
■開発環境
言語____:SQL,Python,ShellScript
FW____:Apache Spark
環境・OS_:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール___:Docker,Terraform,digdag,JIRA,Github
【Azure】クラウドエンジニアの求人・案件
業務委託(フリーランス)
HadoopAzure
インフラエンジニア
作業内容 在庫管理等の分散処理システムをHadoop on Sparkで組んでおりDMCから逆輸入による導入
【Python(Web開発系)】【業務委託(準委任)】データ連携アプリ開発
作業内容 【20代~40代のITエンジニアが活躍中!】
■概要
開発中のシステムに対する追加機能の設計実装となります。
■作業工程:アプリケーション設計~総合テストになります
【SQL】トライネットシステム開発支援の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSGlueAthena
作業内容 ■開発環境
プログラミング言語:Python
ライブラリ:PySpark, pandas
データベース:AWS RDS (SQLServer), AWS Athena(trino)
環境・OS:AWS (Amazon Web Services), AWS Lambda, AWS Glue
BIツール:QuickSight
■業務内容
・新規データマート要件定義、既存集計フロー効率化
ユーザの要望を聞いて、新しいデータマートを作成したり既存の集計フローを自動化することで効率化を図ります
・データマート作成
既存帳票(Excel,CSV)からSQL作成、BIでの可視化
・データのETL処理やETL処理のためのスクリプト・システム開発運用改善業務
AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、S3にデータレイク、データマートを構築既存の基盤改修・改善
・データマート日次運用保守業務
New【分析基盤エンジニア】データ連携基盤検証環境構築の求人・案件
業務委託(フリーランス)
SparkApacheSnowflakeKafkaKubernetes
作業内容 今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。
【Pythonなど】Saasプロダクトデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【SQL/Python】新規データマート作成の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSGlueAthena
作業内容 ・新規データマート要件定義、既存集計フロー効率化
・ユーザの要望を聞いて、新しいデータマートを作成したり既存の集計フローを自動化することで効率化を図ります
・データマート作成
・既存帳票(Excel,CSV)からSQL作成、BIでの可視化
・データのETL処理やETL処理のためのスクリプト・システム開発運用改善業務
AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、S3にデータレイク、データマートを構築既存の基盤改修・改善
・データマート日次運用保守業務
【現場環境】
・プログラミング言語: Python
・ライブラリ: PySpark, pandas
・データベース: AWS RDS (SQLServer), AWS Athena(trino)
・環境・OS: AWS (Amazon Web Services), AWS Lambda, AWS Glue
・BIツール: QuickSight
【Python】Saasプロダクトデータ基盤構築
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAWSDockerJIRAGitHubAuroraLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【業務内容】
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる
大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
【精算幅】140-180h
【面談】1回
【勤務地】リモート
【備考】
・服装:自由
・就業時間:9:00-18:00
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
【クラウドエンジニア(AWS)】【業務委託(準委任)】自社サービス開発
作業内容 ■概要
テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark、HBase、Hive、Presto、Hudiといった分散DBの知見のある方を募集いたします。
■具体的な作業内容
・データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Python/AWS/フルリモート可能】調剤薬局向けサービス管理ツールの案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWS
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
◆業務概要
・RDBのデータベース設計
・GlueJobでPythonを利用したETL処理の設計・開発
・APIGateway、Lambdaを利用したAPI開発
調剤薬局向けサービスを複数提供している企業にてサービスを総括的に管理する管理コンソールの開発業務をご担当頂きます。
管理コンソールに必要な機能の集約、追加実装等をお願い致します。
◆就業形態について
現状、開発メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。
◆補足
現場チームについては、
様々な分野での経験を持つ少数精鋭のメンバーが集まっております。
他部署を含め業務委託のエンジニアも複数名在籍しており、社員エンジニアと垣根のない働きやすい環境です。
【分析基盤エンジニア】データ利活用を推進するETL/ELT処理開発、DWH構築などのデータ基盤開発支援
業務委託(フリーランス)
AWSAzureGoogle Cloud Platform
サーバーサイドエンジニア
作業内容 エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。 ◆業務内容の詳細◆ Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用 Apache Sparkを利用したETL処理の開発 各サービス開発チームのデータエンジニアリングの支援 ◆今後の進展について◆ 昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。 それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。
【Python/SQL】自社サービスSaaS(在庫管理)のバックエンド開発(データ基盤)
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAurora
フロントエンドエンジニアAIエンジニアバックエンドエンジニア
作業内容 ■業務内容
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、
エンタープライズとの契約が急激に増えている中で、
非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【Python(Web開発系)】【業務委託(準委任)】自社サービスSaasのバックエンド(データ基盤)
業務委託(フリーランス)
PythonSQLSparkAWS
バックエンドエンジニア
作業内容 【20代~40代のITエンジニアが活躍中!】
■概要
Pythonによるデータ基盤構築
■具体的な作業内容
・在庫最適化システムを支えるデータ基盤の構築を行っていただきます
・自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています
・顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます
・社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります
【Python/SQL】Saasのデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【概要】
・在庫最適化システムを支えるデータ基盤の構築
・Saasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望の相談増
・数億レコードにもなる大量のデータ加工をSQLやPythonを用いて作成、
集計後、データストアに投入する基盤の構築
・エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制
【工程】
基本設計 詳細設計 開発 単体テスト 結合テスト 総合テスト 運用
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・検索エンジン: Amazon Elasticsearch Service
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ: Amazon Web Services
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
New【Python】バックエンドエンジニアの求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWS
バックエンドエンジニア
作業内容 エンドクライアントを支援するサービスのダッシュボードのデータベース設計、API開発、ETL処理の開発をする業務をお願いします。
[具体的な業務]
・RDBのデータベース設計
・Glue JobでPythonを利用したETL処理の設計・開発
・API Gateway、Lambdaを利用したAPI開発
・技術的知見からの、プロダクトオーナと協調した仕様策定
・AWS関連リソースのより積極的な活用
・git flowベースの開発進行