【Python】大手小売業向けアプリケーション開発案件
業務委託(フリーランス)
PythonSparkGoogle Cloud PlatformBigQuery
作業内容 ・大手小売業向けアプリケーションの運用保守、改善開発案件に携わっていただきます。
・作業内容において主に下記作業をご担当いただきます。
-AIモデルの運用保守および改善開発
-GCP上で展開される複数のAIモデルの定期的な運用
-AIモデルにエラーが発生した場合にはその対応
-効果測定
-モデル改善の実装
【Databricks】大手損保会社 Databricksノートブック開発/フルリモート
業務委託(フリーランス)
PythonSpark
サーバーサイドエンジニア
作業内容 要件定義/設計~試験、導入、顧客向け資料作成および説明
※ Hadoopのサポート切れに伴い、Hadoop上に保管されている大量の顧客データをDatabricksに移行し、既存の連携バッチをDatabricksに移行する見込みのため、案件開始時の技術者を探しているという状況です。
今年度中に参画可能な技術者がいる場合でもご提案いただきたいです。
【データ分析】データエンジニア募集
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティスト
作業内容 ①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【Pythonリモート】某サービスSaasのデータ基盤開発
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【フルリモート|Python】自社サービス開発支援(在庫管理)
PythonSQLSparkAWSApache
データベースエンジニアバックエンドエンジニア
作業内容 在庫管理システムの開発支援を行っていただきます。
【業務例】
・データ基盤の運用及び保守開発
・新規データ取得のETLの設計及び実装
・構成/プロセスの見直し
・データウェアハウスの設計及び実装
・データの可視化
【開発環境】
・開発言語: Python、SQL
・インフラ: Amazon Web Services
・AWS製品: EC2、ECS、StepFunctions、S3、Redshift、Aurora(PostgreSQL)、Lambda、Cloud Watch
・ツール: GitHub、Jira、Slack
【担当工程】
基本設計,詳細設計,実装,テスト,運用・保守
【AWS】インフラ構築またはサーバーサイド開発
業務委託(フリーランス)
JavaPythonRedisHadoopSparkAWSReactTypeScriptAthenaLambda
サーバーサイドエンジニア
作業内容 【概要】
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
【勤務先】
大崎※フルリモート可(9:00~18:00)
【時間精算】下限140h~上限200h
【面談回数】2回
服装:ビジネスカジュアル
※週5日〜OKの案件です!
【Python/SQL】自社サービスSaasのバックエンド(データ基盤)
業務委託(フリーランス)
PythonSQLSparkAWS
機械学習エンジニアバックエンドエンジニア
作業内容 ■募集背景・課題
【Python】某大手小売・流通のシステム開発または広告や社内プロダクトの開発
業務委託(フリーランス)
PythonMySQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformKubernetes
作業内容 【概要】①某大手小売・流通のシステム開発
②広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
案件カテゴリー: 開発
最寄駅:半蔵門※リモート可
打合せ回数:2回
※週5日〜OKの案件です!
【Python】チャットコマースプロダクト開発案件
業務委託(フリーランス)
PythonSQLMySQLSpark
作業内容 ・チャットコマースサービスの開発にサーバーサイドエンジニアとして携わっていただきます。
・スキルに応じて下記作業もお任せいたします。
- データ基盤の開発・運用
- データ基盤のデータ品質担保
- データ基盤の運用効率化
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
AWS データレイク・DWH管理等
PythonSparkAWSGitGoogle Cloud PlatformBigQueryHiveGlueAthenaTerraformCircleCILambda
作業内容 動画やECサイト等、Webコンテンツを数多く提供しているサービス企業において、サービス提供の根幹となるデータレイク・DWH管理などの対応をしていただきます。
主な業務内容は以下を想定していますが、詳細についてはご面談時に説明させていただきます。
1. AWSのデータレイクからBigqueryへのデータ移行作業
2. GCPデータ基盤の整備(ワークフローエンジン導入等)
→2番の作業関しては、ご意向と経験に応じてご相談となります。
<開発環境>
言語:Python, Hive, Spark
AWS:EMR, Glue, Athena, Lambda, APIGateway
GCP:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows
CI・CD・その他:Terraform, CircleCI, GithubActions, digdag, embulk
<備考>
基本リモート
<基本時間>
10:00~19:00
AWS 分散DBを用いたデータ基盤のインフラエンジニア
HbaseSparkAWSHive
インフラエンジニア
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMRでの Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
【AWS】DB構築開発運用
業務委託(フリーランス)
PythonSQLShellLinuxUnixPostgreSQLSparkAWSApacheRedshiftCloudFormationLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
▼概要
WS環境におけるDB構築・開発・運用をご担当いただきます。
・Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発
・クラウド(AWS)を使用した製品利用ログ分析基盤の開発・運用
・AWS EMRを使用したETL, データ前処理 (Python, Spark)
▼作業工程
設計・実装・デバッグ・テスト
▼場所
大崎駅
※8月以降はみなとみらいに移転予定
※基本リモートだが作業開始時には数日出社
※今後、出社メインの可能性あり
▼精算幅
140-190h
▼面談回数
1回
※WEB
▼就業時間
9時30分~18時00分
※昼休み45分
※週5日〜OKの案件です!
【Python】データエンジニア募集
業務委託(フリーランス)
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティスト
作業内容 ①GPSを用いたデータの集計・予測支援
②SaaS型プロダクトの開発支援
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【データ分析補佐】GPSデータを用いた予測支援
業務委託(フリーランス)
PythonSQLMySQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 1.GPSデータを用いた予測支援2.SaaS型プロダクトの開発支援 上記いずれかにおいてデータエンジニア業務に従事いただきます。
Python / SQL / AWS など データエンジニア募集
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 下記のような案件においてデータエンジニア業務に従事いただきます。
・GPSを用いたデータの集計・予測支援
・SaaS型プロダクトの開発支援
【Python】データエンジニア
業務委託(フリーランス)
PythonMySQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティスト
作業内容 ①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【データエンジニア】データ基盤構築関連案件
業務委託(フリーランス)
PythonSQLSparkGitHubBigQuery
データサイエンティストデータベースエンジニア
作業内容 ・データエンジニアとしてデータ基盤構築関連のプロジェクトに携わっていただきます。
・担当範囲はスキルや経験および進捗状況により変動いたします。
【DB/リモート】大量に蓄積されたデータとAIを駆使して改善するサービスの開発を担当
業務委託(フリーランス)
PythonSQLScalaHadoopSparkBigQuery
作業内容 ・データサイエンティストと協働したAIプロジェクトの推進
・画像や動画など、広告クリエイティブにおけるデータ処理、学習モデル化
・最適化アルゴリズム、外部ツール連携、データ解析など、必要アセットの調査研究・検証
・AIを駆使し、現広告業務へ付加価値をつける機能・システムの考案・開発
・機械学習モデルのサービング
【AWS/フルリモート可能】エンドユーザー向けAWS ETL環境の設計レビュー・改善・実装・メンテナンスの案件・求人
業務委託(フリーランス)
MySQLDynamoDBSparkAWSApacheGitHubRedshift
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
既存のAWS ETL環境の調査改善
・メンテ作業の手順化、運用作業(テーブル追加、カラム変更程度)
※対象環境は、ミッションクリティカルではないデータ処理基盤となる上位にて他PJへのスライド案件も御紹介可能で御座います。
【AWS/MySQL/リモート併用】ETL環境の設計レビュー・改善・実装・メンテナンスの案件・求人
業務委託(フリーランス)
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
・既存のAWSETL環境の調査改善・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度)※対象環境はミッションクリティカルではないデータ処理基盤となる
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Python】トレーサビリティ構築案件
作業内容 ・トレーサビリティ構築に携わっていただきます。
・複数システムからの部品の所在データのIF、DWH・Data Martの実装、テスト、リリース作業をご担当いただきます。
・基本設計以降のフェーズをご対応いただきます。
・開発環境は下記になります。
Databricks, Azure, Apache Spark
【Python/テレワーク】データエンジニア
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 NTTドコモが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整・実現性検討
【データ分析(フルリモート)】データエンジニア★フルスタック歓迎★
業務委託(フリーランス)
HadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティストフルスタックエンジニア
作業内容 ★フルスタックエンジニア歓迎★
①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
NoSQL 総合電機メーカーのビッグデータ蓄積/抽出/分析
PythonSQLDynamoDBSparkAWSApacheGraphQL
作業内容 総合電機メーカー様のビッグデータ蓄積/抽出/分析案件になります。
蓄積された種々の構造化/非構造化データを利活用するために下記をご担当いただきます。
・No SQL Databaseに格納
・データ抽出設計
・抽出用 API 作成
<技術要素>
AWS S3, Apache Spark, SparkSQL, Databricks, AWS AppSync(GraphQL), Python(S3に蓄積されたデータをDatabricks 経由でDynamoDBに送り、AppSyncでAPI展開するイメージ)
<担当工程>
データ抽出設計 ~ API 実装 ~ テスト
<服装>
オフィスカジュアル
【Objective-C/Swift】Bigqueryデータ移行案件
業務委託(フリーランス)
Objective-CMySQLSparkAWSSwiftGoogle Cloud PlatformBigQueryHive
ネットワークエンジニアスマホアプリエンジニア
作業内容 ・AWSのデータレイクからBigqueryへのデータ移行をおこなっていただきます。
・下記を行っていただきます。
-GCPデータ基盤の整備
-ワークフローエンジン導入
【データ分析】データエンジニア
業務委託(フリーランス)
HadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティスト
作業内容 案件内容:
①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【SQL/Python】システム開発データエンジニア案件
業務委託(フリーランス)
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 ・データエンジニアとして、下記のいずれかをご対応いただきます。
‐通信会社販促システム開発
‐小売/流通のシステム開発
‐広告や社内プロダクトの開発
【Python / 20代30代活躍中】大手自動車メーカー向けAI関連システム開発
業務委託(フリーランス)
PythonHadoopDjangoSparkAWS
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
案件内容 :運送会社向けにドライバーの運行情報を解析するアプリ開発をPoCを回しながら行っております。
デジタルタコグラフから取得した大量の運行情報をAWS環境上で蓄積し、
Djangoにて解析を行うシステムの開発を担当していただきます。
勤務時間 :9:00~18:00(予定)
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
AWS / Docker 地図広告P/Fのインフラ設計、開発、テスト
業務委託(フリーランス)
PythonNode.jsSparkAWSDocker
作業内容 新規プロダクトである地図広告P/Fのインフラ設計、開発、テストを推進していただきます。
AWS上でのデータ処理やクエリーワークロードの設計、デプロイ、監視のためのMapboxのプロセスとツールの簡素化と強化が主要業務となります。
開発、営業、その他チームとの連携も重要となります。
<工程>
設計、開発、テスト
<備考>
フルリモート
<基本時間>
10:00~19:00