【Java(Spring Boot)】【業務委託(準委任)】道路交通系開発案件【リモートOK】
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
道路交通系開発をお任せいたします。
Hadoop上で動作する道路交通系システムの開発をご担当いただきます。
■作業工程:詳細設計~結合テスト
★元請直/リモート/AWS+EMR データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
データ加工処理マイグレーション検討
HadoopSparkAWSApacheSnowflakeGlue
作業内容 大手通信事業者向け、データ加工処理マイグレーション検討案件です。
現行のデータ加工処理をマイグレーションするための、移行計画および移行方式の検討立案を実施頂きます。
現状、上位会社が移行計画/移行方式の検討立案を進めている状況で、今回はその業務をご支援頂きます。
※参画後は、現行のデータ加工処理基盤をご理解頂き、ユーザ要件を確認しつつ
クラウドシフトをするための移行計画/移行方式の検討を進めて頂きます。
現在想定しているマイグレーション例は、以下の通りです。
-現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト
-ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換
→Databricks、Snowflake(Snowpark)、AWS(Glue,EMR)等の
Spark関連マネージド・サービスにマイグレーション
【ほぼフルリモート】某大手通信事業者向けデータ加工処理マイグレーション検討
業務委託(フリーランス)
SparkAWSApacheSnowflakeGlue
作業内容 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます
【マイグレーション例】
・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト
・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する
⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション
【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
地図広告プラットフォーム開発
【Python /一部リモート/週5日】フロー管理システムの開発・保守作業
業務委託(フリーランス)
PythonSQL
サーバーサイドエンジニアバックエンドエンジニア
作業内容
フロー管理システムの開発・保守作業
【Java(Spring)】【業務委託(準委任)】某社のクレジット基幹システム内の売上処理の再構築案件
業務委託(フリーランス)
JavaOracleSpring
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
某社のクレジット基幹システム内の売上処理の再構築案件に携わっていただきます。
■募集理由
・Host(COBOL)のシステムをオープン化(Java化)しているが、ストレートコンバージョンによる実施の為、Host特有のロジック等があり非効率なロジックが多く、無駄な処理時間がかかっている
・ロジックを見直しながら、純粋にJavaで一から作り直すことで性能改善を図る
・また、現状バッチ処理による一括更新だが、Apache Kafkaを導入し、トランザクション処理化を行う
■求める方
・他担当の技術的サポート、ソースレビューなどもできる開発者
・フェーズがテストよりになるため、結合テスト/システムテストをひと通り従事したことあり、具体的にどのようなタスクかを理解している方
・在宅勤務下であることから、コミュニケーション能力があり、各種報告等をしっかりできる方
Databricks/次世代DWH開発
業務委託(フリーランス)
SparkAWSAzureApache
インフラエンジニア
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、複数社が持つデータを掛け合わせ、分析が可能なデータ分析基盤を構築するプロジェクトが進行しています。そこで、クレジットカード会社の開発において、グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行います。本件では開発メンバーを募集いたします。
<実施工程>
オンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、
今後は完全移行を目指す。
<想定工程>
2024年7 月~要件定義開始、2025月5月にリリースを目指す
開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
データアーキテクト エンタープライズ
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
作業内容 外資コンサル日本法人内でのクラウドチームへご参画いただきます。
※エンジニアではなくコンサル枠となります。
さまざまなサービスと実装パターンを活用して、
安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。
具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、
データの取り込み、保存、処理、消費のためのソリューションを設計します。
組織の要件に応じて、アーキテクチャが高可用性、災害復旧、
およびグローバル分散向けに設計されていることが目的です。
<想定される作業>
・データエンジニアと緊密に連携し、
バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化を目指します。
・データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、
高度な分析や機械学習プロジェクトをサポートします。
1.データモデリング
2.データベース管理
3.データ統合
4.データガバナンスとセキュリティ
5.データ分析と視覚化
6.テクノロジーの評価と実装
7.コラボレーションとコミュニケーション
8.戦略計画
※各項目詳細は、面談時にお伝えさせていただきます。
【Python/フルリモート可能】Saasプロダクトデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Python(データ分析系)】【業務委託(準委任)】データ基盤構築【フルリモート】
業務委託(フリーランス)
PythonSQLSparkAWS
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。
■開発環境
・開発言語: Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・検索エンジン: Amazon Elasticsearch Service
・ライブラリ、フレームワーク:pandas、NumPy、Dask
・インフラ: AWS
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、JIRA、Slack、CircleCI、Sentry
DMS開発メンバー クレジットカード会社の次世代DWH(DMS)開発支援
PythonSQLSASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、
複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。
・ポジション:DMS開発メンバー
・業務内容:
上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、
グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。
・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
・実施工程:
FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。
※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す
ETL/SQLエンジニア 既存のデータパイプラインの保守案件
作業内容 ・新規パイプラインの設計・構築(Sparkを想定)
・BIツールを活用した既存ダッシュボードの保守、新規ダッシュボード構築
AWS / Python IoTデータ分析基盤の設計・構築・テスト
作業内容 AWS上に、IoTデータを集積したレイクハウスを設計・構築いたします。
AWS Glue、StepFunctionsによる設計・構築・テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS GlueやSparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を募集しております。
<基本時間>
10:00~19:00
プラットフォーム構築メンバー クレジットカード会社の次世代DWH(DMS)開発支援
SASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、
複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。
・業務内容:
上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、
グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。
・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
・実施工程:
FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。
※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す
【Python/SQLなど】データエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformAthena
作業内容 データエンジニアとして、データサイエンティストやエンジニアと協力しながら、データ基盤を構築・改善し課題解決を行っていただきます。
データ処理/管理/収集、Webクローリングやスクレイピングなどデータ活用周りを幅広くご支援いただきます。
【ETL(リモート)】インタフェース開発
作業内容 ・IF各種設計書作成
・MS Fabric環境での実装(検証及びテストも含む)
・その他上記に付随する業務
Python データ分析及びバックエンド開発業務(リモート)
業務委託(フリーランス)
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
バックエンドエンジニア AI開発やバックエンド開発(リモート)
業務委託(フリーランス)
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
AWS上で動作するアプリケーションの開発をお任せいたします。
■具体的な作業内容
1. AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業
2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(2については本人の意向、能力等を鑑みて判断とさせてください)
【業務委託】【運用中ソーシャルゲーム向け】3Dエフェクトデザイン案件
業務委託(フリーランス)
PhotoshopMayaUnity
エフェクトデザイナー
作業内容 運用中ソーシャルゲームにおいて
3Dエフェクトデザイナーとして作業をお任せいたします。
具体的には下記作業を想定しております。
・UnityでのShurikenを使用したインゲームエフェクトの制作
※エフェクトによって素材となるメッシュ制作作業を含みます。
【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト
業務委託(フリーランス)
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。
設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。
【AWS/Python/リモート併用】インフラ構築の求人・案件
業務委託(フリーランス)
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件
業務委託(フリーランス)
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。
【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化
・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、
高度な分析や機械学習プロジェクトをサポートします。
【概要】
・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。
具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、
データの取り込み、保存、処理、消費のためのソリューション設計になります。
【Azure】分析領域の次期システム開発支援の求人・案件
作業内容 クライアントの内製開発をご支援いただきます。
クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに
Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。
今回は、次期システムの開発支援メンバーを募集します。
同内製開発チームは製造IoT系のシステムを開発しています。
このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。
製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。
・Azureサービスを用いたシステム構築、開発
【AWS】データ利活用を目的としたビッグデータの加工、集計業務(リモート)
業務委託(フリーランス)
PythonSQLLinuxAWSLambda
作業内容 スクラムのメンバーとして、基盤構築/アプリ開発を業務としてご担当していただきます。
【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集
業務委託(フリーランス)
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】
Q&Aに特化したライブ配信アプリを開発しております。
インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。
■チーム体制
・PdM:1名
・バックエンドエンジニア:2名
・モバイルエンジニア:3名
・プロダクトデザイナー:1名
■環境
• 分散DB(Cloud Spanner)
• 言語:Go言語
• 通信 :connect-go proto
• コンピューティング:Kubernetes → Cloud Run
• DWH・パイプライン構築
◦ BigQuery
◦ Apache Spark
■働き方
フルリモート
週1回(月or金)出社頂ける方が理想です。
外国籍:不可
【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件
業務委託(フリーランス)
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細> ・分析基盤整備 └ダッシュボードの作成(KPIツリー、目的別ボード) └ユーザー行動の可視化(推移、利用特性) └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析 └データを用いた仮説検証(機能、UI改善、施策) └ユーザー行動(数値化、可視化、セグメント分類) └効果検証(広告、キャンペーン、メールマガジン等) └得られたデータを元にしたインサイトの提供
<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase
【Python(Web開発系)】【業務委託(準委任)】機械学習案件
業務委託(フリーランス)
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。
一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。
Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。
某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。
以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。
■業務例1:図面に対する画像認識システムの構築
某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。
・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ
・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用
・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り
・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明
・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義
・高いモデル精度を保証するための実験、分析、可視化
■業務例2:サプライチェーンにおけるデータ分析
某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。
それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。
・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築
・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード
・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発
・実データのクレンジング、構造化、説明可能性の高いモデルの構築
・製造業に関わる外部変数の収集、分析
■業務例3:調達フローにおける最適化アルゴリズムの適用
某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。
・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築
・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化
・顧客からの課題のヒアリング、タスク定義とシステム開発
・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化
・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進