Sparkの案件・求人一覧

1-30 / 全 519

【Java(Spring Boot)】【業務委託(準委任)】道路交通系開発案件【リモートOK】

700,000円/月

JavaSQLSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 道路交通系開発をお任せいたします。 Hadoop上で動作する道路交通系システムの開発をご担当いただきます。 ■作業工程:詳細設計~結合テスト

★元請直/リモート/AWS+EMR データ蓄積基盤構築

800,000円/月

業務委託(フリーランス)
東京都
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する   その後、既存データを新基盤に移行する作業も実施予定。

データ加工処理マイグレーション検討

700,000 〜 900,000円/月

東京都
門前仲町駅
HadoopSparkAWSApacheSnowflakeGlue
作業内容 大手通信事業者向け、データ加工処理マイグレーション検討案件です。 現行のデータ加工処理をマイグレーションするための、移行計画および移行方式の検討立案を実施頂きます。 現状、上位会社が移行計画/移行方式の検討立案を進めている状況で、今回はその業務をご支援頂きます。 ※参画後は、現行のデータ加工処理基盤をご理解頂き、ユーザ要件を確認しつつ  クラウドシフトをするための移行計画/移行方式の検討を進めて頂きます。 現在想定しているマイグレーション例は、以下の通りです。  -現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト  -ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換  →Databricks、Snowflake(Snowpark)、AWS(Glue,EMR)等の   Spark関連マネージド・サービスにマイグレーション

【ほぼフルリモート】某大手通信事業者向けデータ加工処理マイグレーション検討

900,000円/月

業務委託(フリーランス)
東京都
門前仲町駅
SparkAWSApacheSnowflakeGlue
作業内容 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます  【マイグレーション例】  ・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト  ・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する   ⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション

【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の求人・案件

600,000円/月

業務委託(フリーランス)
東京都
虎ノ門駅
PythonHadoopSparkAWSHiveGlueAthena
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 地図広告プラットフォーム開発

【Python /一部リモート/週5日】フロー管理システムの開発・保守作業

600,000 〜 700,000円/月

業務委託(フリーランス)
PythonSQL
サーバーサイドエンジニアバックエンドエンジニア
作業内容 フロー管理システムの開発・保守作業

【Java(Spring)】【業務委託(準委任)】某社のクレジット基幹システム内の売上処理の再構築案件

650,000円/月

業務委託(フリーランス)
東京都
東京駅
JavaOracleSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社のクレジット基幹システム内の売上処理の再構築案件に携わっていただきます。 ■募集理由 ・Host(COBOL)のシステムをオープン化(Java化)しているが、ストレートコンバージョンによる実施の為、Host特有のロジック等があり非効率なロジックが多く、無駄な処理時間がかかっている ・ロジックを見直しながら、純粋にJavaで一から作り直すことで性能改善を図る ・また、現状バッチ処理による一括更新だが、Apache Kafkaを導入し、トランザクション処理化を行う ■求める方 ・他担当の技術的サポート、ソースレビューなどもできる開発者 ・フェーズがテストよりになるため、結合テスト/システムテストをひと通り従事したことあり、具体的にどのようなタスクかを理解している方 ・在宅勤務下であることから、コミュニケーション能力があり、各種報告等をしっかりできる方

Databricks/次世代DWH開発

600,000円/月

業務委託(フリーランス)
東京都
SparkAWSAzureApache
インフラエンジニア
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、複数社が持つデータを掛け合わせ、分析が可能なデータ分析基盤を構築するプロジェクトが進行しています。そこで、クレジットカード会社の開発において、グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行います。本件では開発メンバーを募集いたします。 <実施工程>  オンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、  今後は完全移行を目指す。 <想定工程>   2024年7 月~要件定義開始、2025月5月にリリースを目指す    開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築

データアーキテクト エンタープライズ

900,000 〜 1,200,000円/月

東京都
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
作業内容 外資コンサル日本法人内でのクラウドチームへご参画いただきます。 ※エンジニアではなくコンサル枠となります。 さまざまなサービスと実装パターンを活用して、 安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューションを設計します。 組織の要件に応じて、アーキテクチャが高可用性、災害復旧、 およびグローバル分散向けに設計されていることが目的です。 <想定される作業> ・データエンジニアと緊密に連携し、  バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化を目指します。 ・データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、  高度な分析や機械学習プロジェクトをサポートします。 1.データモデリング 2.データベース管理 3.データ統合 4.データガバナンスとセキュリティ 5.データ分析と視覚化 6.テクノロジーの評価と実装 7.コラボレーションとコミュニケーション 8.戦略計画 ※各項目詳細は、面談時にお伝えさせていただきます。

【Python/フルリモート可能】Saasプロダクトデータ基盤構築の求人・案件

700,000円/月

業務委託(フリーランス)
フルリモート
PythonSQLSparkAWSDocker
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry

【Python(データ分析系)】【業務委託(準委任)】データ基盤構築【フルリモート】

650,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSparkAWS
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。 ■開発環境 ・開発言語: Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・検索エンジン: Amazon Elasticsearch Service ・ライブラリ、フレームワーク:pandas、NumPy、Dask ・インフラ: AWS ・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch ・環境、ツール: Docker、GitHub、JIRA、Slack、CircleCI、Sentry

DMS開発メンバー クレジットカード会社の次世代DWH(DMS)開発支援

440,000 〜 540,000円/月

東京都
PythonSQLSASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、 複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。 ・ポジション:DMS開発メンバー ・業務内容:  上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、  グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。 ・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築 ・実施工程:  FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。 ※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す

ETL/SQLエンジニア 既存のデータパイプラインの保守案件

800,000円/月

業務委託(フリーランス)
東京都
SQL
作業内容 ・新規パイプラインの設計・構築(Sparkを想定) ・BIツールを活用した既存ダッシュボードの保守、新規ダッシュボード構築

AWS / Python IoTデータ分析基盤の設計・構築・テスト

600,000 〜 800,000円/月

東京都
新宿駅
PythonSparkAWSGitGlue
作業内容 AWS上に、IoTデータを集積したレイクハウスを設計・構築いたします。 AWS Glue、StepFunctionsによる設計・構築・テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS GlueやSparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を募集しております。 <基本時間> 10:00~19:00

プラットフォーム構築メンバー クレジットカード会社の次世代DWH(DMS)開発支援

440,000 〜 540,000円/月

東京都
SASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、 複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。 ・業務内容:  上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、  グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。 ・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築 ・実施工程:  FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。 ※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す

【Python/SQLなど】データエンジニアの求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformAthena
作業内容 データエンジニアとして、データサイエンティストやエンジニアと協力しながら、データ基盤を構築・改善し課題解決を行っていただきます。 データ処理/管理/収集、Webクローリングやスクレイピングなどデータ活用周りを幅広くご支援いただきます。

【ETL(リモート)】インタフェース開発

1,100,000円/月

業務委託(フリーランス)
大阪府
作業内容 ・IF各種設計書作成 ・MS Fabric環境での実装(検証及びテストも含む) ・その他上記に付随する業務

Python データ分析及びバックエンド開発業務(リモート)

900,000円/月

業務委託(フリーランス)
東京都
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

バックエンドエンジニア AI開発やバックエンド開発(リモート)

1,000,000円/月

業務委託(フリーランス)
東京都
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

800,000円/月

業務委託(フリーランス)
東京都
六本木一丁目駅
AWS
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上で動作するアプリケーションの開発をお任せいたします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください)

【業務委託】【運用中ソーシャルゲーム向け】3Dエフェクトデザイン案件

600,000円/月

業務委託(フリーランス)
東京都
大崎駅
PhotoshopMayaUnity
エフェクトデザイナー
作業内容 運用中ソーシャルゲームにおいて 3Dエフェクトデザイナーとして作業をお任せいたします。 具体的には下記作業を想定しております。 ・UnityでのShurikenを使用したインゲームエフェクトの制作 ※エフェクトによって素材となるメッシュ制作作業を含みます。

【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。 設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。

【AWS/Python/リモート併用】インフラ構築の求人・案件

700,000円/月

業務委託(フリーランス)
リモート
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ・Lob分析サービス開発運用 ・TVなどの操作Logをもとにランキングなどを出力するサービス開発 (AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発) 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】

【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件

500,000円/月

業務委託(フリーランス)
リモート
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。

【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件

1,300,000円/月

業務委託(フリーランス)
リモート
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化 ・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、 高度な分析や機械学習プロジェクトをサポートします。 【概要】 ・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューション設計になります。

【Azure】分析領域の次期システム開発支援の求人・案件

800,000円/月

業務委託(フリーランス)
リモート
PythonAzure
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【AWS】データ利活用を目的としたビッグデータの加工、集計業務(リモート)

700,000円/月

業務委託(フリーランス)
東京都
品川駅
PythonSQLLinuxAWSLambda
作業内容 スクラムのメンバーとして、基盤構築/アプリ開発を業務としてご担当していただきます。

【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】 Q&Aに特化したライブ配信アプリを開発しております。 インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。 ■チーム体制 ・PdM:1名 ・バックエンドエンジニア:2名 ・モバイルエンジニア:3名 ・プロダクトデザイナー:1名 ■環境 • 分散DB(Cloud Spanner) • 言語:Go言語 • 通信 :connect-go proto • コンピューティング:Kubernetes → Cloud Run • DWH・パイプライン構築 ◦ BigQuery ◦ Apache Spark ■働き方 フルリモート 週1回(月or金)出社頂ける方が理想です。 外国籍:不可

【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供      <使用ツール> ・開発言語:Go ・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery ・ソースコード管理:GitHub ・CI/CD:CircleCI, Cloud Build ・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring ・インシデント管理:PagerDuty ・コミュニケーション:Slack, Google Meet ・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

【Python(Web開発系)】【業務委託(準委任)】機械学習案件

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。 一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。 某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。 以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。 ■業務例1:図面に対する画像認識システムの構築 某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。 ・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ ・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用 ・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り ・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明 ・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義 ・高いモデル精度を保証するための実験、分析、可視化 ■業務例2:サプライチェーンにおけるデータ分析 某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。 それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。 ・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築 ・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード ・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発 ・実データのクレンジング、構造化、説明可能性の高いモデルの構築 ・製造業に関わる外部変数の収集、分析 ■業務例3:調達フローにおける最適化アルゴリズムの適用 某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。 ・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築 ・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化 ・顧客からの課題のヒアリング、タスク定義とシステム開発 ・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化 ・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進

掛け合わせ条件で絞り込む

特徴で絞り込む
Spark × 在宅・リモート

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:176件、②フリエン(furien):58件、③BIGDATA NAVI:58件、④Midworks:38件、⑤レバテッククリエイター:33件、⑥フリコン:31件、⑦フォスターフリーランス:21件、⑧テックリーチ:17件、⑨アットエンジニア:12件、⑩HiPro Tech(ハイプロテック):11件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②フリエン(furien)、③BIGDATA NAVIであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②フリエン(furien)、③BIGDATA NAVIを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①PMO NAVI:105万円、②フリーランスポート(Freelance Port):95万円、③HiPro Tech(ハイプロテック):93.6万円、④広済堂ネクスト:90万円、⑤Midworks:85.8万円、⑥アットエンジニア:84.2万円、⑦レバテックフリーランス:81.8万円、⑧フリコン:80.8万円、⑨BIGDATA NAVI:80.1万円、⑩1 on 1 Freelance:80万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①PMO NAVI、②フリーランスポート(Freelance Port)、③HiPro Tech(ハイプロテック)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①PMO NAVI、②フリーランスポート(Freelance Port)、③HiPro Tech(ハイプロテック)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:437件、②大阪府:20件、③福岡県:7件、④神奈川県:5件、⑤愛知県:3件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③福岡県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③福岡県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①データサイエンティスト:61件、②サーバーサイドエンジニア:61件、③バックエンドエンジニア:40件、④インフラエンジニア:40件、⑤アプリケーションエンジニア:30件、⑥エフェクトデザイナー:29件、⑦データベースエンジニア:25件、⑧サーバーエンジニア:14件、⑨スマホアプリエンジニア:13件、⑩フロントエンドエンジニア:13件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人は①データサイエンティスト、②サーバーサイドエンジニア、③バックエンドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:122.5万円、③PL:117.5万円、④コンサル:114.5万円、⑤デザイナー:105.8万円、⑥ITコンサルタント:105万円、⑦QAエンジニア:103.3万円、⑧フロントエンドエンジニア:102.1万円、⑨PM:98.6万円、⑩SRE:96.3万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③PLであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:232件、②機械:93件、③IT:83件、④広告:82件、⑤ゲーム:61件、⑥AI:51件、⑦通信:48件、⑧EC:39件、⑨SaaS:39件、⑩ソーシャルゲーム:36件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人は①サービス、②機械、③ITが多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③ITを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:114.5万円、③DX:108.5万円、④Sier:101.9万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦官公庁:90万円、⑧物流:88.8万円、⑨AI:88万円、⑩金融系:87.5万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③DXであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③DXを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が261件(50.3%)、常駐案件が258件(49.7%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2024年7月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は80万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は519件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。

Sparkの案件・求人一覧

1-30 / 全 519

【Java(Spring Boot)】【業務委託(準委任)】道路交通系開発案件【リモートOK】

700,000円/月

JavaSQLSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 道路交通系開発をお任せいたします。 Hadoop上で動作する道路交通系システムの開発をご担当いただきます。 ■作業工程:詳細設計~結合テスト

★元請直/リモート/AWS+EMR データ蓄積基盤構築

800,000円/月

業務委託(フリーランス)
東京都
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する   その後、既存データを新基盤に移行する作業も実施予定。

データ加工処理マイグレーション検討

700,000 〜 900,000円/月

東京都
門前仲町駅
HadoopSparkAWSApacheSnowflakeGlue
作業内容 大手通信事業者向け、データ加工処理マイグレーション検討案件です。 現行のデータ加工処理をマイグレーションするための、移行計画および移行方式の検討立案を実施頂きます。 現状、上位会社が移行計画/移行方式の検討立案を進めている状況で、今回はその業務をご支援頂きます。 ※参画後は、現行のデータ加工処理基盤をご理解頂き、ユーザ要件を確認しつつ  クラウドシフトをするための移行計画/移行方式の検討を進めて頂きます。 現在想定しているマイグレーション例は、以下の通りです。  -現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト  -ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換  →Databricks、Snowflake(Snowpark)、AWS(Glue,EMR)等の   Spark関連マネージド・サービスにマイグレーション

【ほぼフルリモート】某大手通信事業者向けデータ加工処理マイグレーション検討

900,000円/月

業務委託(フリーランス)
東京都
門前仲町駅
SparkAWSApacheSnowflakeGlue
作業内容 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます  【マイグレーション例】  ・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト  ・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する   ⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション

【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の求人・案件

600,000円/月

業務委託(フリーランス)
東京都
虎ノ門駅
PythonHadoopSparkAWSHiveGlueAthena
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 地図広告プラットフォーム開発

【Python /一部リモート/週5日】フロー管理システムの開発・保守作業

600,000 〜 700,000円/月

業務委託(フリーランス)
PythonSQL
サーバーサイドエンジニアバックエンドエンジニア
作業内容 フロー管理システムの開発・保守作業

【Java(Spring)】【業務委託(準委任)】某社のクレジット基幹システム内の売上処理の再構築案件

650,000円/月

業務委託(フリーランス)
東京都
東京駅
JavaOracleSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社のクレジット基幹システム内の売上処理の再構築案件に携わっていただきます。 ■募集理由 ・Host(COBOL)のシステムをオープン化(Java化)しているが、ストレートコンバージョンによる実施の為、Host特有のロジック等があり非効率なロジックが多く、無駄な処理時間がかかっている ・ロジックを見直しながら、純粋にJavaで一から作り直すことで性能改善を図る ・また、現状バッチ処理による一括更新だが、Apache Kafkaを導入し、トランザクション処理化を行う ■求める方 ・他担当の技術的サポート、ソースレビューなどもできる開発者 ・フェーズがテストよりになるため、結合テスト/システムテストをひと通り従事したことあり、具体的にどのようなタスクかを理解している方 ・在宅勤務下であることから、コミュニケーション能力があり、各種報告等をしっかりできる方

Databricks/次世代DWH開発

600,000円/月

業務委託(フリーランス)
東京都
SparkAWSAzureApache
インフラエンジニア
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、複数社が持つデータを掛け合わせ、分析が可能なデータ分析基盤を構築するプロジェクトが進行しています。そこで、クレジットカード会社の開発において、グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行います。本件では開発メンバーを募集いたします。 <実施工程>  オンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、  今後は完全移行を目指す。 <想定工程>   2024年7 月~要件定義開始、2025月5月にリリースを目指す    開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築

データアーキテクト エンタープライズ

900,000 〜 1,200,000円/月

東京都
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
作業内容 外資コンサル日本法人内でのクラウドチームへご参画いただきます。 ※エンジニアではなくコンサル枠となります。 さまざまなサービスと実装パターンを活用して、 安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューションを設計します。 組織の要件に応じて、アーキテクチャが高可用性、災害復旧、 およびグローバル分散向けに設計されていることが目的です。 <想定される作業> ・データエンジニアと緊密に連携し、  バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化を目指します。 ・データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、  高度な分析や機械学習プロジェクトをサポートします。 1.データモデリング 2.データベース管理 3.データ統合 4.データガバナンスとセキュリティ 5.データ分析と視覚化 6.テクノロジーの評価と実装 7.コラボレーションとコミュニケーション 8.戦略計画 ※各項目詳細は、面談時にお伝えさせていただきます。

【Python/フルリモート可能】Saasプロダクトデータ基盤構築の求人・案件

700,000円/月

業務委託(フリーランス)
フルリモート
PythonSQLSparkAWSDocker
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry

【Python(データ分析系)】【業務委託(準委任)】データ基盤構築【フルリモート】

650,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSparkAWS
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。 ■開発環境 ・開発言語: Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・検索エンジン: Amazon Elasticsearch Service ・ライブラリ、フレームワーク:pandas、NumPy、Dask ・インフラ: AWS ・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch ・環境、ツール: Docker、GitHub、JIRA、Slack、CircleCI、Sentry

DMS開発メンバー クレジットカード会社の次世代DWH(DMS)開発支援

440,000 〜 540,000円/月

東京都
PythonSQLSASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、 複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。 ・ポジション:DMS開発メンバー ・業務内容:  上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、  グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。 ・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築 ・実施工程:  FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。 ※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す

ETL/SQLエンジニア 既存のデータパイプラインの保守案件

800,000円/月

業務委託(フリーランス)
東京都
SQL
作業内容 ・新規パイプラインの設計・構築(Sparkを想定) ・BIツールを活用した既存ダッシュボードの保守、新規ダッシュボード構築

AWS / Python IoTデータ分析基盤の設計・構築・テスト

600,000 〜 800,000円/月

東京都
新宿駅
PythonSparkAWSGitGlue
作業内容 AWS上に、IoTデータを集積したレイクハウスを設計・構築いたします。 AWS Glue、StepFunctionsによる設計・構築・テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS GlueやSparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を募集しております。 <基本時間> 10:00~19:00

プラットフォーム構築メンバー クレジットカード会社の次世代DWH(DMS)開発支援

440,000 〜 540,000円/月

東京都
SASOracleSparkAWSAzureApacheGoogle Cloud PlatformBigQuery
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、 複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。 ・業務内容:  上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、  グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。 ・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築 ・実施工程:  FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。 ※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す

【Python/SQLなど】データエンジニアの求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformAthena
作業内容 データエンジニアとして、データサイエンティストやエンジニアと協力しながら、データ基盤を構築・改善し課題解決を行っていただきます。 データ処理/管理/収集、Webクローリングやスクレイピングなどデータ活用周りを幅広くご支援いただきます。

【ETL(リモート)】インタフェース開発

1,100,000円/月

業務委託(フリーランス)
大阪府
作業内容 ・IF各種設計書作成 ・MS Fabric環境での実装(検証及びテストも含む) ・その他上記に付随する業務

Python データ分析及びバックエンド開発業務(リモート)

900,000円/月

業務委託(フリーランス)
東京都
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

バックエンドエンジニア AI開発やバックエンド開発(リモート)

1,000,000円/月

業務委託(フリーランス)
東京都
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア

800,000円/月

業務委託(フリーランス)
東京都
六本木一丁目駅
AWS
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上で動作するアプリケーションの開発をお任せいたします。 ■具体的な作業内容 1. AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業 2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等) (2については本人の意向、能力等を鑑みて判断とさせてください)

【業務委託】【運用中ソーシャルゲーム向け】3Dエフェクトデザイン案件

600,000円/月

業務委託(フリーランス)
東京都
大崎駅
PhotoshopMayaUnity
エフェクトデザイナー
作業内容 運用中ソーシャルゲームにおいて 3Dエフェクトデザイナーとして作業をお任せいたします。 具体的には下記作業を想定しております。 ・UnityでのShurikenを使用したインゲームエフェクトの制作 ※エフェクトによって素材となるメッシュ制作作業を含みます。

【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。 設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。

【AWS/Python/リモート併用】インフラ構築の求人・案件

700,000円/月

業務委託(フリーランス)
リモート
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ・Lob分析サービス開発運用 ・TVなどの操作Logをもとにランキングなどを出力するサービス開発 (AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発) 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】

【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件

500,000円/月

業務委託(フリーランス)
リモート
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。

【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件

1,300,000円/月

業務委託(フリーランス)
リモート
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化 ・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、 高度な分析や機械学習プロジェクトをサポートします。 【概要】 ・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューション設計になります。

【Azure】分析領域の次期システム開発支援の求人・案件

800,000円/月

業務委託(フリーランス)
リモート
PythonAzure
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【AWS】データ利活用を目的としたビッグデータの加工、集計業務(リモート)

700,000円/月

業務委託(フリーランス)
東京都
品川駅
PythonSQLLinuxAWSLambda
作業内容 スクラムのメンバーとして、基盤構築/アプリ開発を業務としてご担当していただきます。

【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】 Q&Aに特化したライブ配信アプリを開発しております。 インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。 ■チーム体制 ・PdM:1名 ・バックエンドエンジニア:2名 ・モバイルエンジニア:3名 ・プロダクトデザイナー:1名 ■環境 • 分散DB(Cloud Spanner) • 言語:Go言語 • 通信 :connect-go proto • コンピューティング:Kubernetes → Cloud Run • DWH・パイプライン構築 ◦ BigQuery ◦ Apache Spark ■働き方 フルリモート 週1回(月or金)出社頂ける方が理想です。 外国籍:不可

【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供      <使用ツール> ・開発言語:Go ・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery ・ソースコード管理:GitHub ・CI/CD:CircleCI, Cloud Build ・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring ・インシデント管理:PagerDuty ・コミュニケーション:Slack, Google Meet ・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

【Python(Web開発系)】【業務委託(準委任)】機械学習案件

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。 一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。 某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。 以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。 ■業務例1:図面に対する画像認識システムの構築 某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。 ・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ ・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用 ・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り ・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明 ・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義 ・高いモデル精度を保証するための実験、分析、可視化 ■業務例2:サプライチェーンにおけるデータ分析 某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。 それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。 ・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築 ・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード ・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発 ・実データのクレンジング、構造化、説明可能性の高いモデルの構築 ・製造業に関わる外部変数の収集、分析 ■業務例3:調達フローにおける最適化アルゴリズムの適用 某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。 ・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築 ・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化 ・顧客からの課題のヒアリング、タスク定義とシステム開発 ・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化 ・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進

掛け合わせ条件で絞り込む

特徴で絞り込む
Spark × 在宅・リモート

あなたにピッタリ
フリーランス案件が見つかる

  • 110万件以上のフリーランス案件から一括検索

    279,815の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 7月27日(Sat)更新

    10万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:176件、②フリエン(furien):58件、③BIGDATA NAVI:58件、④Midworks:38件、⑤レバテッククリエイター:33件、⑥フリコン:31件、⑦フォスターフリーランス:21件、⑧テックリーチ:17件、⑨アットエンジニア:12件、⑩HiPro Tech(ハイプロテック):11件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②フリエン(furien)、③BIGDATA NAVIであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②フリエン(furien)、③BIGDATA NAVIを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①PMO NAVI:105万円、②フリーランスポート(Freelance Port):95万円、③HiPro Tech(ハイプロテック):93.6万円、④広済堂ネクスト:90万円、⑤Midworks:85.8万円、⑥アットエンジニア:84.2万円、⑦レバテックフリーランス:81.8万円、⑧フリコン:80.8万円、⑨BIGDATA NAVI:80.1万円、⑩1 on 1 Freelance:80万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①PMO NAVI、②フリーランスポート(Freelance Port)、③HiPro Tech(ハイプロテック)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①PMO NAVI、②フリーランスポート(Freelance Port)、③HiPro Tech(ハイプロテック)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:437件、②大阪府:20件、③福岡県:7件、④神奈川県:5件、⑤愛知県:3件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③福岡県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③福岡県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①データサイエンティスト:61件、②サーバーサイドエンジニア:61件、③バックエンドエンジニア:40件、④インフラエンジニア:40件、⑤アプリケーションエンジニア:30件、⑥エフェクトデザイナー:29件、⑦データベースエンジニア:25件、⑧サーバーエンジニア:14件、⑨スマホアプリエンジニア:13件、⑩フロントエンドエンジニア:13件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人は①データサイエンティスト、②サーバーサイドエンジニア、③バックエンドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:122.5万円、③PL:117.5万円、④コンサル:114.5万円、⑤デザイナー:105.8万円、⑥ITコンサルタント:105万円、⑦QAエンジニア:103.3万円、⑧フロントエンドエンジニア:102.1万円、⑨PM:98.6万円、⑩SRE:96.3万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③PLであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:232件、②機械:93件、③IT:83件、④広告:82件、⑤ゲーム:61件、⑥AI:51件、⑦通信:48件、⑧EC:39件、⑨SaaS:39件、⑩ソーシャルゲーム:36件となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人は①サービス、②機械、③ITが多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③ITを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:114.5万円、③DX:108.5万円、④Sier:101.9万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦官公庁:90万円、⑧物流:88.8万円、⑨AI:88万円、⑩金融系:87.5万円となっています。(※フリーランスHub調べ/2024年7月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③DXであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③DXを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が261件(50.3%)、常駐案件が258件(49.7%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2024年7月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は80万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は519件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。