Sparkの案件・求人一覧

1-30 / 全 500

【Python(Web開発系)】【業務委託(準委任)】機械学習案件

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。 一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。 某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。 以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。 ■業務例1:図面に対する画像認識システムの構築 某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。 ・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ ・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用 ・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り ・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明 ・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義 ・高いモデル精度を保証するための実験、分析、可視化 ■業務例2:サプライチェーンにおけるデータ分析 某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。 それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。 ・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築 ・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード ・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発 ・実データのクレンジング、構造化、説明可能性の高いモデルの構築 ・製造業に関わる外部変数の収集、分析 ■業務例3:調達フローにおける最適化アルゴリズムの適用 某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。 ・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築 ・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化 ・顧客からの課題のヒアリング、タスク定義とシステム開発 ・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化 ・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進

Dynamic365/インタフェース(IF)開発支援

1,200,000円/月

業務委託(フリーランス)
東京都
コンサル
作業内容 ・IF各種設計書作成 ・MS Fabric環境での実装(検証及びテストも含む) ・その他上記に付随する業務

GCP|経験5年|データ基盤構築支援|クラウドエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
秋葉原駅
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。 一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。 インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。 社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
NEW

AWS|経験5年|大規模ライブ配信アプリ開発支援|クラウドエンジニア

850,000円/月

業務委託(フリーランス)
GoSparkAWSApacheGitGoogle Cloud PlatformBigQueryKubernetes
作業内容 ライブ配信アプリを開発している企業様です。 この度、インフラ周りに精通した方でアプリの開発にご参加いただけるメンバーを募集しております。 具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。

【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。 設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。

【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件

500,000円/月

業務委託(フリーランス)
リモート
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。
NEW

【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件

1,300,000円/月

業務委託(フリーランス)
リモート
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化 ・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、 高度な分析や機械学習プロジェクトをサポートします。 【概要】 ・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューション設計になります。

Azure|経験5年|製造IoT基盤分析領域の次期システム開発支援|インフラエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
田町駅
Azure
インフラエンジニア
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【Azure】分析領域の次期システム開発支援の求人・案件

800,000円/月

業務委託(フリーランス)
リモート
PythonAzure
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】 Q&Aに特化したライブ配信アプリを開発しております。 インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。 ■チーム体制 ・PdM:1名 ・バックエンドエンジニア:2名 ・モバイルエンジニア:3名 ・プロダクトデザイナー:1名 ■環境 • 分散DB(Cloud Spanner) • 言語:Go言語 • 通信 :connect-go proto • コンピューティング:Kubernetes → Cloud Run • DWH・パイプライン構築 ◦ BigQuery ◦ Apache Spark ■働き方 フルリモート 週1回(月or金)出社頂ける方が理想です。 外国籍:不可

【Python/BI/リモート】エンタメサービスのユーザー行動分析

750,000円/月

業務委託(フリーランス)
東京都
渋谷駅
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析 ■内 容: ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供

【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供      <使用ツール> ・開発言語:Go ・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery ・ソースコード管理:GitHub ・CI/CD:CircleCI, Cloud Build ・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring ・インシデント管理:PagerDuty ・コミュニケーション:Slack, Google Meet ・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python,Spark】テキストマイニング

850,000円/月

業務委託(フリーランス)
東京都
JavaPythonScalaSparkGit
作業内容 AIエージェントAPIの開発を行う企業にて テキストマイニング ■開発環境 バージョン管理ツール:Git

【Python,Hadoop,Spark】大手外資系医療情報・テクロノジーサービス企業データ分析支援

1,000,000円/月

業務委託(フリーランス)
東京都
PythonScalaHadoopSpark
作業内容 業務内容:世界中から集まる製薬データの分析 メインフレームシステムのダウンサイジング

【 hadoop,kafka,storm,spark】セキュリティプラットフォーム基盤構築

800,000円/月

業務委託(フリーランス)
東京都
HadoopSparkApacheKafka
作業内容 通信会社向けのセキュリティプラットフォーム基盤をOSSを利用して 新規構築する案件となります。各種製品ログをデータレイクに蓄積し、 リアルタイムなアラート検知、およびインタラクティブな集計/分析を 可能とするプラットフォームの構築案件です。

【Scala,ApacheSpark】ビックデータ/レコメンド機能等に関する開発支援

700,000円/月

業務委託(フリーランス)
東京都
ScalaSparkApache
アプリケーションエンジニア
作業内容 Webサイトへの導入、機能そのものの改修、データ分析などなど

【Spark,Tensorflow】産学連携AIシステム開発における基盤構築

800,000円/月

業務委託(フリーランス)
東京都
SparkTensorFlow
組み込みエンジニア
作業内容 広告等の宣伝文章を自動構成するAIシステム開発が進んでおり、 日本語・英語を使用したコピーライティングに関するAIを載せる基盤の構築業務。 言語に関する大規模データの処理

人材業界でのデータエンジニア募集

1,000,000円/月

業務委託(フリーランス)
東京都
JavaSQLScalaHadoopSparkApacheHive
アプリケーションエンジニア
作業内容 ■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服

【Java,Javascript,MySQL,基本設計,Hadoop】レコメンドエンジン開発

600,000 〜 700,000円/月

業務委託(フリーランス)
東京都
JavaJavaScriptMySQLHadoopSparkJenkinsAnsible
アプリケーションエンジニア
作業内容 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

某大手製造メーカー系会社 データ処理インフラ基盤の構築

800,000円/月

業務委託(フリーランス)
東京都
SparkAWSGoogle Cloud Platform
作業内容 ■業務内容 製造メーカー系会社のデータ処理基盤の設計・構築 → 大量のログデータを蓄積するクラウド環境及び、製品に埋め込むクライアントの開発運用

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件

700,000円/月

業務委託(フリーランス)
東京都
リモート
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。 PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。 データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)     環境 オンプレサーバー (現地作業等は無し、リモートから接続) OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…) データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品 (サポートが付くだけのようなイメージ) HPE Ezmeral Runtime (≒ Kubernetes) OpenShift等に⽐べ、より純正Kubernetesに近い 構成 データレイク: HDFS, minio(≒S3), HBase DWH: Hive or Spark ワークフロー: NiFi or Airflow データ加⼯: Hive, Spark (シェルスクリプト/Java or Python) BI: Tableau, Palantir (本募集スコープの作業範囲外) 体制 アジャイル開発 (スクラム) メンバー10名程度 デイリーで午前にスクラムミーティング有り

【データ分析補佐】GPSデータを用いた予測支援

700,000円/月

業務委託(フリーランス)
リモート
PythonSQLMySQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 1.GPSデータを用いた予測支援2.SaaS型プロダクトの開発支援 上記いずれかにおいてデータエンジニア業務に従事いただきます。

分析基盤クラウド構築案件

1,200,000円/月

業務委託(フリーランス)
東京都
SQLLinuxHadoopSparkAWS
作業内容 オンライン・オフラインのデータをクラウド環境で統合して分析できる基盤構築を行うための環境構築、ETL設計・開発、データ抽出を行います。 データを効果的・効率的に活用するための基盤を構築する戦略的なポジションになります。 クラウド環境:AWS

【機械学習,画像認識】パッケージ製品へのAI関連の機能開発支援

800,000円/月

業務委託(フリーランス)
東京都
HadoopSpark
作業内容 パッケージ製品へのAI関連の機能の 拡充を検討されており、その開発のご支援となります。 具体的には、 ・機械学習を用いた処理の最適化機能 ・画像認識機能、OCR機能 ・音声での対話入出力機能 が初期スコープとなっております。

【Python(Web開発系)】【業務委託(準委任)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 意思決定をデータドリブンに行っていく基盤の設計・開発・運用をします。 データアナリストやマーケティング、アプリケーションエンジニアと協力しながら、END企業の事業を支えるデータ基盤を整備・改善して課題解決を行っていくロールです。

【Python(Web開発系)】【業務委託(準委任)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 意思決定をデータドリブンに行っていく基盤の設計・開発・運用をします。 データアナリストやマーケティング、アプリケーションエンジニアと協力しながら、END企業の事業を支えるデータ基盤を整備・改善して課題解決を行っていくロールです。

掛け合わせ条件で絞り込む

特徴で絞り込む
Spark × 在宅・リモート

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:172件、②BIGDATA NAVI:57件、③フリエン(furien):55件、④レバテッククリエイター:33件、⑤Midworks:33件、⑥フリコン:24件、⑦テックリーチ:16件、⑧アットエンジニア:12件、⑨ビズリンク:12件、⑩HiPro Tech(ハイプロテック):11件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②BIGDATA NAVI、③フリエン(furien)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②BIGDATA NAVI、③フリエン(furien)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①チョクフリ:120万円、②PMO NAVI:105万円、③フリーランスポート(Freelance Port):95万円、④HiPro Tech(ハイプロテック):93.6万円、⑤ビズリンク:93.2万円、⑥Midworks:86.7万円、⑦アットエンジニア:84.2万円、⑧レバテックフリーランス:81.5万円、⑨BIGDATA NAVI:80.4万円、⑩フリコン:80万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①チョクフリ、②PMO NAVI、③フリーランスポート(Freelance Port)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①チョクフリ、②PMO NAVI、③フリーランスポート(Freelance Port)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:424件、②大阪府:19件、③福岡県:7件、④神奈川県:5件、⑤愛知県:2件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③福岡県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③福岡県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①サーバーサイドエンジニア:59件、②データサイエンティスト:58件、③インフラエンジニア:39件、④バックエンドエンジニア:35件、⑤アプリケーションエンジニア:30件、⑥エフェクトデザイナー:29件、⑦データベースエンジニア:24件、⑧サーバーエンジニア:14件、⑨スマホアプリエンジニア:13件、⑩フロントエンドエンジニア:12件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人は①サーバーサイドエンジニア、②データサイエンティスト、③インフラエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:122.5万円、③PL:117.5万円、④コンサル:112.5万円、⑤QAエンジニア:106万円、⑥デザイナー:105.8万円、⑦ITコンサルタント:105万円、⑧フロントエンドエンジニア:102.7万円、⑨PM:98.6万円、⑩SRE:96.3万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③PLであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:226件、②機械:92件、③広告:84件、④IT:73件、⑤ゲーム:60件、⑥AI:51件、⑦通信:46件、⑧EC:40件、⑨ソーシャルゲーム:35件、⑩SaaS:35件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人は①サービス、②機械、③広告が多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③広告を中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:112.5万円、③DX:108.5万円、④Sier:100.6万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦官公庁:90万円、⑧物流:88.8万円、⑨AI:88.6万円、⑩IoT:87.9万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③DXであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③DXを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が250件(50.0%)、常駐案件が250件(50.0%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2024年4月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は81万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は500件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。

Sparkの案件・求人一覧

1-30 / 全 500

【Python(Web開発系)】【業務委託(準委任)】機械学習案件

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSDockerGitGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 某社には、受発注や製造工程のプロセスの中で生れまた大規模なデータがあります。 一連のプロセスに紐づく全てのデータを活用することが、モノづくり産業のプロセス全体の改善につながると某社は信じています。 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。 某社の持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。 以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。 ■業務例1:図面に対する画像認識システムの構築 某社が保有するパートナー様の図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。 ・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ ・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用 ・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り ・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明 ・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義 ・高いモデル精度を保証するための実験、分析、可視化 ■業務例2:サプライチェーンにおけるデータ分析 某社は受発注における、加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。 それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。 ・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築 ・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード ・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発 ・実データのクレンジング、構造化、説明可能性の高いモデルの構築 ・製造業に関わる外部変数の収集、分析 ■業務例3:調達フローにおける最適化アルゴリズムの適用 某社が持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。 ・某社が持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築 ・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化 ・顧客からの課題のヒアリング、タスク定義とシステム開発 ・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化 ・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進

Dynamic365/インタフェース(IF)開発支援

1,200,000円/月

業務委託(フリーランス)
東京都
コンサル
作業内容 ・IF各種設計書作成 ・MS Fabric環境での実装(検証及びテストも含む) ・その他上記に付随する業務

GCP|経験5年|データ基盤構築支援|クラウドエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
秋葉原駅
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。 一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。 インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。 社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
NEW

AWS|経験5年|大規模ライブ配信アプリ開発支援|クラウドエンジニア

850,000円/月

業務委託(フリーランス)
GoSparkAWSApacheGitGoogle Cloud PlatformBigQueryKubernetes
作業内容 ライブ配信アプリを開発している企業様です。 この度、インフラ周りに精通した方でアプリの開発にご参加いただけるメンバーを募集しております。 具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。

【クラウドエンジニア(AWS)】【業務委託(準委任)】IoTデータ分析基盤(レイクハウス)の設計・構築・テスト

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonAWSGitGlue
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 AWS上にIoTデータを集積したレイクハウスを設計、構築いたします。 設計、構築の依頼はAWS Glue、Step Functionsによる設計、構築、テストが依頼範囲となります。 データ規模が大きいシステムのため、AWS Glue、Sparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を希望します。

【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件

500,000円/月

業務委託(フリーランス)
リモート
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。
NEW

【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件

1,300,000円/月

業務委託(フリーランス)
リモート
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化 ・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、 高度な分析や機械学習プロジェクトをサポートします。 【概要】 ・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。 具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、 データの取り込み、保存、処理、消費のためのソリューション設計になります。

Azure|経験5年|製造IoT基盤分析領域の次期システム開発支援|インフラエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
田町駅
Azure
インフラエンジニア
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【Azure】分析領域の次期システム開発支援の求人・案件

800,000円/月

業務委託(フリーランス)
リモート
PythonAzure
作業内容 クライアントの内製開発をご支援いただきます。 クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
AWSGitGoogle Cloud Platform
インフラエンジニア
作業内容 【仕事内容】 Q&Aに特化したライブ配信アプリを開発しております。 インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。 ■チーム体制 ・PdM:1名 ・バックエンドエンジニア:2名 ・モバイルエンジニア:3名 ・プロダクトデザイナー:1名 ■環境 • 分散DB(Cloud Spanner) • 言語:Go言語 • 通信 :connect-go proto • コンピューティング:Kubernetes → Cloud Run • DWH・パイプライン構築 ◦ BigQuery ◦ Apache Spark ■働き方 フルリモート 週1回(月or金)出社頂ける方が理想です。 外国籍:不可

【Python/BI/リモート】エンタメサービスのユーザー行動分析

750,000円/月

業務委託(フリーランス)
東京都
渋谷駅
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析 ■内 容: ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供

【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件

650,000円/月

業務委託(フリーランス)
リモート
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析 ・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施 ・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する ・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等) ※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り) <業務詳細> ・分析基盤整備  └ダッシュボードの作成(KPIツリー、目的別ボード)  └ユーザー行動の可視化(推移、利用特性)  └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析  └データを用いた仮説検証(機能、UI改善、施策)  └ユーザー行動(数値化、可視化、セグメント分類)  └効果検証(広告、キャンペーン、メールマガジン等)  └得られたデータを元にしたインサイトの提供      <使用ツール> ・開発言語:Go ・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery ・ソースコード管理:GitHub ・CI/CD:CircleCI, Cloud Build ・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring ・インシデント管理:PagerDuty ・コミュニケーション:Slack, Google Meet ・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python,Spark】テキストマイニング

850,000円/月

業務委託(フリーランス)
東京都
JavaPythonScalaSparkGit
作業内容 AIエージェントAPIの開発を行う企業にて テキストマイニング ■開発環境 バージョン管理ツール:Git

【Python,Hadoop,Spark】大手外資系医療情報・テクロノジーサービス企業データ分析支援

1,000,000円/月

業務委託(フリーランス)
東京都
PythonScalaHadoopSpark
作業内容 業務内容:世界中から集まる製薬データの分析 メインフレームシステムのダウンサイジング

【 hadoop,kafka,storm,spark】セキュリティプラットフォーム基盤構築

800,000円/月

業務委託(フリーランス)
東京都
HadoopSparkApacheKafka
作業内容 通信会社向けのセキュリティプラットフォーム基盤をOSSを利用して 新規構築する案件となります。各種製品ログをデータレイクに蓄積し、 リアルタイムなアラート検知、およびインタラクティブな集計/分析を 可能とするプラットフォームの構築案件です。

【Scala,ApacheSpark】ビックデータ/レコメンド機能等に関する開発支援

700,000円/月

業務委託(フリーランス)
東京都
ScalaSparkApache
アプリケーションエンジニア
作業内容 Webサイトへの導入、機能そのものの改修、データ分析などなど

【Spark,Tensorflow】産学連携AIシステム開発における基盤構築

800,000円/月

業務委託(フリーランス)
東京都
SparkTensorFlow
組み込みエンジニア
作業内容 広告等の宣伝文章を自動構成するAIシステム開発が進んでおり、 日本語・英語を使用したコピーライティングに関するAIを載せる基盤の構築業務。 言語に関する大規模データの処理

人材業界でのデータエンジニア募集

1,000,000円/月

業務委託(フリーランス)
東京都
JavaSQLScalaHadoopSparkApacheHive
アプリケーションエンジニア
作業内容 ■業務内容 (1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯ (2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化 (3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装 稼 働:週2日~5日 相談可能 時 間:9:30 - 18:30(応相談) 服 装:ビジネスカジュアル・私服

【Java,Javascript,MySQL,基本設計,Hadoop】レコメンドエンジン開発

600,000 〜 700,000円/月

業務委託(フリーランス)
東京都
JavaJavaScriptMySQLHadoopSparkJenkinsAnsible
アプリケーションエンジニア
作業内容 ・node.js でのAPI設計・開発・テスト ・Hiveクエリの作成・テスト・チューニング ・Spark プログラムの設計・開発・テスト ・Jenkinsジョブの作成 ・Ansible設定ファイルの作成

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

某大手製造メーカー系会社 データ処理インフラ基盤の構築

800,000円/月

業務委託(フリーランス)
東京都
SparkAWSGoogle Cloud Platform
作業内容 ■業務内容 製造メーカー系会社のデータ処理基盤の設計・構築 → 大量のログデータを蓄積するクラウド環境及び、製品に埋め込むクライアントの開発運用

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件

700,000円/月

業務委託(フリーランス)
東京都
リモート
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。 PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。 データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)     環境 オンプレサーバー (現地作業等は無し、リモートから接続) OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…) データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品 (サポートが付くだけのようなイメージ) HPE Ezmeral Runtime (≒ Kubernetes) OpenShift等に⽐べ、より純正Kubernetesに近い 構成 データレイク: HDFS, minio(≒S3), HBase DWH: Hive or Spark ワークフロー: NiFi or Airflow データ加⼯: Hive, Spark (シェルスクリプト/Java or Python) BI: Tableau, Palantir (本募集スコープの作業範囲外) 体制 アジャイル開発 (スクラム) メンバー10名程度 デイリーで午前にスクラムミーティング有り

【データ分析補佐】GPSデータを用いた予測支援

700,000円/月

業務委託(フリーランス)
リモート
PythonSQLMySQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 1.GPSデータを用いた予測支援2.SaaS型プロダクトの開発支援 上記いずれかにおいてデータエンジニア業務に従事いただきます。

分析基盤クラウド構築案件

1,200,000円/月

業務委託(フリーランス)
東京都
SQLLinuxHadoopSparkAWS
作業内容 オンライン・オフラインのデータをクラウド環境で統合して分析できる基盤構築を行うための環境構築、ETL設計・開発、データ抽出を行います。 データを効果的・効率的に活用するための基盤を構築する戦略的なポジションになります。 クラウド環境:AWS

【機械学習,画像認識】パッケージ製品へのAI関連の機能開発支援

800,000円/月

業務委託(フリーランス)
東京都
HadoopSpark
作業内容 パッケージ製品へのAI関連の機能の 拡充を検討されており、その開発のご支援となります。 具体的には、 ・機械学習を用いた処理の最適化機能 ・画像認識機能、OCR機能 ・音声での対話入出力機能 が初期スコープとなっております。

【Python(Web開発系)】【業務委託(準委任)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 意思決定をデータドリブンに行っていく基盤の設計・開発・運用をします。 データアナリストやマーケティング、アプリケーションエンジニアと協力しながら、END企業の事業を支えるデータ基盤を整備・改善して課題解決を行っていくロールです。

【Python(Web開発系)】【業務委託(準委任)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 意思決定をデータドリブンに行っていく基盤の設計・開発・運用をします。 データアナリストやマーケティング、アプリケーションエンジニアと協力しながら、END企業の事業を支えるデータ基盤を整備・改善して課題解決を行っていくロールです。

掛け合わせ条件で絞り込む

特徴で絞り込む
Spark × 在宅・リモート

あなたにピッタリ
フリーランス案件が見つかる

  • 110万件以上のフリーランス案件から一括検索

    251,984の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 4月25日(Thu)更新

    10万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:172件、②BIGDATA NAVI:57件、③フリエン(furien):55件、④レバテッククリエイター:33件、⑤Midworks:33件、⑥フリコン:24件、⑦テックリーチ:16件、⑧アットエンジニア:12件、⑨ビズリンク:12件、⑩HiPro Tech(ハイプロテック):11件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②BIGDATA NAVI、③フリエン(furien)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②BIGDATA NAVI、③フリエン(furien)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①チョクフリ:120万円、②PMO NAVI:105万円、③フリーランスポート(Freelance Port):95万円、④HiPro Tech(ハイプロテック):93.6万円、⑤ビズリンク:93.2万円、⑥Midworks:86.7万円、⑦アットエンジニア:84.2万円、⑧レバテックフリーランス:81.5万円、⑨BIGDATA NAVI:80.4万円、⑩フリコン:80万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①チョクフリ、②PMO NAVI、③フリーランスポート(Freelance Port)であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①チョクフリ、②PMO NAVI、③フリーランスポート(Freelance Port)を中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:424件、②大阪府:19件、③福岡県:7件、④神奈川県:5件、⑤愛知県:2件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③福岡県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③福岡県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①サーバーサイドエンジニア:59件、②データサイエンティスト:58件、③インフラエンジニア:39件、④バックエンドエンジニア:35件、⑤アプリケーションエンジニア:30件、⑥エフェクトデザイナー:29件、⑦データベースエンジニア:24件、⑧サーバーエンジニア:14件、⑨スマホアプリエンジニア:13件、⑩フロントエンドエンジニア:12件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人は①サーバーサイドエンジニア、②データサイエンティスト、③インフラエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:122.5万円、③PL:117.5万円、④コンサル:112.5万円、⑤QAエンジニア:106万円、⑥デザイナー:105.8万円、⑦ITコンサルタント:105万円、⑧フロントエンドエンジニア:102.7万円、⑨PM:98.6万円、⑩SRE:96.3万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③PLであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:226件、②機械:92件、③広告:84件、④IT:73件、⑤ゲーム:60件、⑥AI:51件、⑦通信:46件、⑧EC:40件、⑨ソーシャルゲーム:35件、⑩SaaS:35件となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人は①サービス、②機械、③広告が多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③広告を中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:112.5万円、③DX:108.5万円、④Sier:100.6万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦官公庁:90万円、⑧物流:88.8万円、⑨AI:88.6万円、⑩IoT:87.9万円となっています。(※フリーランスHub調べ/2024年4月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③DXであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③DXを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が250件(50.0%)、常駐案件が250件(50.0%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2024年4月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は81万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は500件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。