NEW【Python】WebサービスAI開発案件
業務委託(フリーランス)
PythonSQLPyTorchTensorFlowSAP
サーバーサイドエンジニア
作業内容 ・WebサービスAI開発案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-データ分析(データの前処理、クレンジング、変換)
-モデリング
-SQLを用いたデータベース操作
-PythonによるAPI開発 など
NEW【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データレイクエンジニアの業務をお任せいたします。
■具体的な作業内容
①AWSのデータレイク(Amazon S3+Glue Data Catalog)からBigQueryへのデータ移行作業
②Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(②については本人の意向、能力等を鑑みて判断とさせてください)
★元請直/リモート/AWS/EMR:データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
DMS開発メンバー クレジットカード会社の次世代DWH(DMS)開発支援
PythonSQLSASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、
複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。
・ポジション:DMS開発メンバー
・業務内容:
上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、
グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。
・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
・実施工程:
FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。
※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す
【ETL(リモート)】インタフェース開発
作業内容 ・IF各種設計書作成
・MS Fabric環境での実装(検証及びテストも含む)
・その他上記に付随する業務
NEW【Python(データ分析系)】【業務委託(準委任)】データレイクエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データレイクエンジニアとしてご活躍いただきます。
■具体的な作業内容
1. AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業
2.Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(2については本人の意向、能力等を鑑みて判断とさせてください)
プラットフォーム構築メンバー クレジットカード会社の次世代DWH(DMS)開発支援
SASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、
複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。
・業務内容:
上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、
グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。
・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
・実施工程:
FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。
※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す
【Python(Web開発系)】【業務委託(準委任)】機械学習案件
業務委託(フリーランス)
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。
一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。
Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。
某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。
以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。
■業務例1:図面に対する画像認識システムの構築
某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。
・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ
・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用
・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り
・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明
・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義
・高いモデル精度を保証するための実験、分析、可視化
■業務例2:サプライチェーンにおけるデータ分析
某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。
それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。
・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築
・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード
・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発
・実データのクレンジング、構造化、説明可能性の高いモデルの構築
・製造業に関わる外部変数の収集、分析
■業務例3:調達フローにおける最適化アルゴリズムの適用
某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。
・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築
・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化
・顧客からの課題のヒアリング、タスク定義とシステム開発
・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化
・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進
Python エンドユーザー向けAWS基盤の開発
作業内容 既存のAWSデータレイク基盤をベースにした追加開発
AWS / Python IoTデータ分析基盤の設計・構築・テスト
作業内容 AWS上に、IoTデータを集積したレイクハウスを設計・構築いたします。
AWS Glue、StepFunctionsによる設計・構築・テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS GlueやSparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を募集しております。
<基本時間>
10:00~19:00
NEW【DWH/SQL】DWH設計開発案件
業務委託(フリーランス)
SQLSQL ServerSparkApacheGitBacklogJIRAGitHub
データサイエンティストデータベースエンジニア
作業内容 ・組織全体の意思決定をデータドリブンに行っていくために必要な
DWH層テーブルの設計、開発、保守をお任せいたします。
・具体的には以下のような作業が発生いたします。
‐DWH層テーブルの設計、開発、保守
-関係者からのヒアリング、データ調査
‐DWH層テーブルのSQL及び、PySparkを用いた実装
‐DWH層のテーブルについての問い合わせ対応、不具合解消
‐DWH層開発環境の設計、開発、保守、運用
GCP|経験5年|データ基盤構築支援|クラウドエンジニア
業務委託(フリーランス)
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。
一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。
インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。
社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて
モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
AWS|経験5年|大規模ライブ配信アプリ開発支援|クラウドエンジニア
業務委託(フリーランス)
GoSparkAWSApacheGitGoogle Cloud PlatformBigQueryKubernetes
作業内容 ライブ配信アプリを開発している企業様です。
この度、インフラ周りに精通した方でアプリの開発にご参加いただけるメンバーを募集しております。
具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。
【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト
業務委託(フリーランス)
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。
設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。
【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化
・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、
高度な分析や機械学習プロジェクトをサポートします。
【概要】
・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。
具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、
データの取り込み、保存、処理、消費のためのソリューション設計になります。
【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件
業務委託(フリーランス)
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。
Azure|経験5年|製造IoT基盤分析領域の次期システム開発支援|インフラエンジニア
業務委託(フリーランス)
Azure
インフラエンジニア
作業内容 クライアントの内製開発をご支援いただきます。
クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに
Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。
今回は、次期システムの開発支援メンバーを募集します。
同内製開発チームは製造IoT系のシステムを開発しています。
このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。
製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。
・Azureサービスを用いたシステム構築、開発
【Azure】分析領域の次期システム開発支援の求人・案件
作業内容 クライアントの内製開発をご支援いただきます。
クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに
Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。
今回は、次期システムの開発支援メンバーを募集します。
同内製開発チームは製造IoT系のシステムを開発しています。
このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。
製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。
・Azureサービスを用いたシステム構築、開発
【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集
業務委託(フリーランス)
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】
Q&Aに特化したライブ配信アプリを開発しております。
インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。
■チーム体制
・PdM:1名
・バックエンドエンジニア:2名
・モバイルエンジニア:3名
・プロダクトデザイナー:1名
■環境
• 分散DB(Cloud Spanner)
• 言語:Go言語
• 通信 :connect-go proto
• コンピューティング:Kubernetes → Cloud Run
• DWH・パイプライン構築
◦ BigQuery
◦ Apache Spark
■働き方
フルリモート
週1回(月or金)出社頂ける方が理想です。
外国籍:不可
【Python/BI/リモート】エンタメサービスのユーザー行動分析
業務委託(フリーランス)
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析
■内 容:
・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細>
・分析基盤整備
└ダッシュボードの作成(KPIツリー、目的別ボード)
└ユーザー行動の可視化(推移、利用特性)
└分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
└データを用いた仮説検証(機能、UI改善、施策)
└ユーザー行動(数値化、可視化、セグメント分類)
└効果検証(広告、キャンペーン、メールマガジン等)
└得られたデータを元にしたインサイトの提供
Python データアナリスト募集
PythonSQLJIRAGitHubBigQueryTableauGoogle AnalyticsCircleCI
データアナリスト
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
【役割】
事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること
■ 分析基盤整備
・ダッシュボードの作成(KPIツリー、目的別ボード)
・ユーザー行動の可視化(推移、利用特性)
・分析基盤整備の推進(データ取得の推進、課題点洗い出し)
■ 分析
・データを用いた仮説検証(機能、UI改善、施策)
・ユーザー行動(数値化、可視化、セグメント分類)
・効果検証(広告、キャンペーン、メールマガジン等)
・得られたデータを元にしたインサイトの提供
【働く環境】
・海外や多地点との協働
・メインが日本語で、英語は読み書きが頻出 ※スキルに応じ英会話等も利用の可能性あり
【使用ツール】
開発言語
・Go
インフラ環境
・Google Cloud
・Cloud Spanner
・Cloud Function
・Cloud Run
・BigQuery
ソースコード管理:GitHub
CI/CD: CircleCI, Cloud Build
監視・モニタリング: Google Cloud Logging, Google Cloud Monitoring
インシデント管理: PagerDuty
コミュニケーション: Slack, Google Meet
プロジェクト管理、ドキュメント: JIRA/Confluence/DocBase
【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件
業務委託(フリーランス)
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細> ・分析基盤整備 └ダッシュボードの作成(KPIツリー、目的別ボード) └ユーザー行動の可視化(推移、利用特性) └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析 └データを用いた仮説検証(機能、UI改善、施策) └ユーザー行動(数値化、可視化、セグメント分類) └効果検証(広告、キャンペーン、メールマガジン等) └得られたデータを元にしたインサイトの提供
<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase
【Python】ビッグデータ処理分析開発
業務委託(フリーランス)
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala
【Python,Spark】テキストマイニング
業務委託(フリーランス)
JavaPythonScalaSparkGit
作業内容 AIエージェントAPIの開発を行う企業にて
テキストマイニング
■開発環境
バージョン管理ツール:Git
【Python,Hadoop,Spark】大手外資系医療情報・テクロノジーサービス企業データ分析支援
業務委託(フリーランス)
PythonScalaHadoopSpark
作業内容 業務内容:世界中から集まる製薬データの分析
メインフレームシステムのダウンサイジング
【 hadoop,kafka,storm,spark】セキュリティプラットフォーム基盤構築
業務委託(フリーランス)
HadoopSparkApacheKafka
作業内容 通信会社向けのセキュリティプラットフォーム基盤をOSSを利用して
新規構築する案件となります。各種製品ログをデータレイクに蓄積し、
リアルタイムなアラート検知、およびインタラクティブな集計/分析を
可能とするプラットフォームの構築案件です。
【Scala,ApacheSpark】ビックデータ/レコメンド機能等に関する開発支援
業務委託(フリーランス)
ScalaSparkApache
アプリケーションエンジニア
作業内容 Webサイトへの導入、機能そのものの改修、データ分析などなど
【Spark,Tensorflow】産学連携AIシステム開発における基盤構築
業務委託(フリーランス)
SparkTensorFlow
組み込みエンジニア
作業内容 広告等の宣伝文章を自動構成するAIシステム開発が進んでおり、
日本語・英語を使用したコピーライティングに関するAIを載せる基盤の構築業務。
言語に関する大規模データの処理
人材業界でのデータエンジニア募集
業務委託(フリーランス)
JavaSQLScalaHadoopSparkApacheHive
アプリケーションエンジニア
作業内容 ■業務内容
(1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯
(2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化
(3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装
稼 働:週2日~5日 相談可能
時 間:9:30 - 18:30(応相談)
服 装:ビジネスカジュアル・私服
【Java,Javascript,MySQL,基本設計,Hadoop】レコメンドエンジン開発
業務委託(フリーランス)
JavaJavaScriptMySQLHadoopSparkJenkinsAnsible
アプリケーションエンジニア
作業内容 ・node.js でのAPI設計・開発・テスト
・Hiveクエリの作成・テスト・チューニング
・Spark プログラムの設計・開発・テスト
・Jenkinsジョブの作成
・Ansible設定ファイルの作成