リセット

Sparkの案件・求人一覧

1-30 / 全 588

【Java】電力会社向けシステム開発支援案件

550,000円/月

業務委託(フリーランス)
兵庫県
三ノ宮駅
JavaWindowsLinuxSparkWinSCPGit
サーバーサイドエンジニア
作業内容 ・電力会社向けシステム開発支援に携わっていただきます。 ・主な作業内容は以下の通りです。  -計算ライブラリの変更(Spark →Snowflake)及び、オンプレ→クラウドの載せ替え  - 基本設計~結合試験

【Python / リモート案件ご紹介可能】AWSデータ解析基盤開発(大手メーカー内バックオフィス業務)

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
JavaPythonSQLCSSHTMLSparkAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務を支えるデータ解析基盤の開発を担当します。AWSを活用し、RedshiftやEMR(Spark)、Athenaなどのデータ処理技術を用いたシステムを構築します。Pythonを中心としたデータ処理・分析のスキルが求められます。 ■具体的な業務内容 ・AWS環境上でのデータ解析基盤の設計・開発 ・Pythonを用いたデータ処理スクリプトの作成 ・SQLを用いたデータ抽出・集計処理の実装 ・AWS Lambda、Step Functionsを活用したワークフロー構築 ・Tableauを用いたデータ可視化(可能であれば対応)

【Python】Pythonによる開発経験者募集(分析基盤システム開発支援)(20代〜40代活躍中!・週4日以上稼働可能な方にぴったり!)

500,000円/月

業務委託(フリーランス)
東京都
竹芝駅
PythonSQLSpark
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 小売業向けの分析基盤システムの開発を担当します。要件定義から導入までの一連のシステム開発を進め、PythonやSQLを用いたデータ分析および基盤構築に携わります。 ■具体的な業務内容 ・PythonおよびSQLを用いたデータ分析および基盤構築 ・要件定義から導入までのシステム開発プロセスの遂行 ・AzureおよびDatabricksの活用に関する調査および提案 ・統計手法を用いたデータ分析および改善提案 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

【Python】在庫最適化システムのデータ基盤構築(リモート)

750,000円/月

業務委託(フリーランス)
東京都
PythonSQLSparkAWSDocker
バックエンドエンジニア
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。

【AWS / リモート案件ご紹介可能】大手自動車メーカー向けAWS基盤設計・構築

700,000円/月

業務委託(フリーランス)
東京都
大手町駅
LinuxAWS
作業内容 ★エンジニア実務経験2年以上 / ブランクのない方が対象の案件です!!★ ■概要 大手自動車会社のIoT基盤を支えるAWS上のサーバ基盤運用における設計・構築業務を担当するプロジェクトです。オンプレミスからクラウドに移行したシステムにおいて、AWSの各種マネージドサービスやHadoopエコシステムを活用し、安定した基盤運用を目指します。長期的な支援が見込まれるため、スキルを深める環境が整っています。 ■具体的な業務内容 ・AWS環境でのサーバ設計・構築業務 ・運用設計の策定および運用支援 ・Hadoopエコシステム(Apache Spark、Kafkaなど)を用いたデータ基盤構築 ・AWSマネージドサービスの活用および最適化

【SRE/常駐/週5日】 メガバンク向けAMLパッケージカスタマイズ開発案件

900,000 〜 1,000,000円/月

業務委託(フリーランス)
JavaScalaSpark
SRE
作業内容 要件定義,基本設計,詳細設計,実装,テスト,運用・保守 海外ベンダーの日本進出に伴い、ベンダーの日系パートナーの位置づけで参画いただきます。 他の日系金融機関にも導入が決まっており、今後拡大が見込まれ、 当案件参画を皮切りに当ベンダーのスペシャリストを育成したいと考えております。 入場は6,7月(開始時期の前倒し応相談)を想定しておりますが、参画前に2か月程英語のオンライン研修を受講いただきます。 海外ベンダーのパッケージの導入の為ビジネスレベルの方が好ましいですが、 実作業の英語頻度はそこまで高くない為、TOEICで一定のスコアを持っている方・日常英会話レベルの方でも検討可能です。 (現場PM・メンバーは日本人となっております)

【Python】新データベース構築支援

530,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
PythonSQL
データベースエンジニア
作業内容 【20代~40代の方向け】 現行のものからデータベースを移行するにあたり、新しいデータベースの構築業務に携わって頂きます。 データのETL処理にdatabricksを使用するため、databricks及びPythonでの業務をご担当いただく予定です。 

【Python/SQL】小売向け需要予測システム開発(リモート)

650,000円/月

業務委託(フリーランス)
東京都
竹芝駅
PythonSQL
作業内容 ・需要予測システム開発および運用支援 ・工程:製造・テスト・エラー調査・運用

【Python】小売向け需要予測システム開発/運用(リモート)

600,000円/月

業務委託(フリーランス)
東京都
竹芝駅
PythonSQLGit
バックエンドエンジニア
作業内容 ・小売向け需要予測システム開発、運用支援に関わる各種業務 ・製造〜テスト〜調査〜運用などをご担当

【Python】データ解析基盤の構築(リモート)

650,000円/月

業務委託(フリーランス)
東京都
品川駅
PythonSQLLinux
バックエンドエンジニア
作業内容 ・データのETL処理の基盤構築 ・AWSサービスとPythonを使ってデータ解析基盤の開発 ・設計/製造をメインにご担当

【週4-5日/フルリモート/Python,Node.js】バックエンドエンジニア

1,120,000円/月

業務委託(フリーランス)
PythonSQLNode.jsSparkAWSAzureGitReactGoogle Cloud PlatformTypeScript
バックエンドエンジニア
作業内容 -------------------------------- ※「エンジニアとしての実務経験3年以上」「必須要件に記載されている言語の実務経験が2年以上」の方が対象の案件です ※外国籍の方は、「日本語能力検定1級」「日本語が母国語の方」の方が対象です ※すでにFindy Freelanceで担当がついている方は、直接ご連絡いただいた方がスムーズです -------------------------------- 私たちは広告データ分析系SaaSおよびキャリアプラットフォームのさらなる進化を目指し、 データ基盤・分析基盤、LLM/AI基盤の構築・運用を強化し、革新的なプロダクトを支えるため、LLMを用いたプロダクトのバックエンドAPI開発に臨むエンジニアを募集いたします。 ▼役割 SaaS/キャリアプラットフォームに用いるデータ基盤の構築・運用、バックエンドAPIの開発 ▼具体的な業務内容 - LLMを用いたプロダクトのバックエンドAPI開発、運用 - スケーラブルなクラウドインフラの構築、運用 - LLM用のベクトルデータストアの整備 ▼上記業務に慣れてきたら以下にもトライいただきたいです - LLM/AIエージェントの構築 - ビジネス部門との連携によるデータニーズの把握、データ活用支援 - ドキュメンテーション、技術共有、チームへの貢献 ▼このポジションの魅力 - Python、Node.js、LangChain、PostgreSQL、AWSなど、多様な技術を駆使してバックエンドスキルの幅が広げられる - データパイプラインやデータウェアハウスの設計・運用を通じ、企業の意思決定基盤に携わる事が可能 - 自由度の高い開発環境で新しい技術を試せる - エンジニアリングとプロダクトの両方の視点を養える - 迅速かつ効率的なアジャイル開発で即座にアイデアを形にできる - エンジニア同士の学び合いを大切にする環境

【20〜40代/週5稼働可能な方歓迎】新規プロダクト開発サーバーサイドエンジニア(Python×AWS)【Python(Web開発系)】

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトの開発において、AWSを活用したサーバーサイドの設計および開発を担当します。ETL処理やAPI開発を中心に、技術的知見を活かしてプロダクトオーナーと連携し、仕様策定やリソース活用を進めます。データベース設計や大規模データ処理経験がある方が特に歓迎されます。 ■具体的な業務内容 ・RDBのデータベース設計および構築 ・Glue JobでPythonを使用したETL処理の設計および開発 ・API GatewayおよびLambdaを活用したAPI開発 ・AWSリソースの活用によるプロダクト開発支援 ・git flowベースのチーム開発およびリリース管理

【Python / リモート案件紹介可能】大規模データ基盤エンジニア×レコメンドエンジン運用

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 派遣業界向けの大規模データ活用基盤の改善・保守を行うプロジェクトです。レコメンドエンジンの運用や分析環境の改善、クラウド環境の技術検証を通じて、より高度なデータ分析基盤の構築に貢献します。必要に応じて、簡易的な機械学習モデルのチューニングやデータ分析業務も担当します。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤の改善および保守運用 ・AWSやGCPを活用したクラウド環境での開発および運用業務 ・Python、Shell、SQLを用いたデータ処理およびスクリプト作成 ・新規クラウドサービスやミドルウェアの技術検証 ・簡易的な機械学習モデルのチューニングおよびデータ分析

【Python(Web開発系) / リモート案件紹介可能】AWS活用×新規プロダクト/サーバーサイドエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトのサーバーサイド開発を担当するプロジェクトです。主にAWSのリソースを活用し、API GatewayやLambdaを利用したAPI開発やGlue Jobを用いたETL処理の設計・開発を行います。プロダクトオーナーとの仕様策定やデータベース設計を担当するだけでなく、データ処理やAPIの最適化にも携わり、幅広い知識を身に付けることが可能です。 ■具体的な業務内容 ・RDBのデータベース設計および開発 ・Glue Jobを利用したETL処理の設計・開発 ・API Gateway、Lambdaを利用したAPI開発 ・AWSリソースを活用したプロダクト開発の設計・実装 ・技術的知見を活かしたプロダクトオーナーとの仕様策定 ・Git flowをベースにした開発進行

【Python(Web開発系)】AWS活用/新規プロダクトのサーバーサイドエンジニア募集

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 AWSを活用した新規プロダクトのサーバーサイド開発を担当するプロジェクトです。API GatewayやLambdaを使用したAPI開発、Glue Jobを用いたETL処理の設計・開発を行います。また、データベース設計やAWSリソースの最適利用を進めながら、プロダクトオーナーと協力して仕様策定にも携わります。チームでの開発経験やAWSサービスの運用経験を活かせる案件です。 ■具体的な業務内容 ・RDBを使用したデータベース設計および開発 ・Glue Jobを使用したETL処理の設計・開発 ・API Gateway、Lambdaを活用したAPI設計および実装 ・AWSリソースを利用したプロダクト開発の推進 ・プロダクトオーナーとの仕様策定および要件整理 ・git flowをベースとした開発プロセスの進行

【Python】ビッグデータ解析 AWSデータ基盤構築・運用

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
PythonAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務において、ビッグデータを活用した解析システムの開発・運用を担当します。AWS上でデータ解析基盤を構築し、データの収集・処理・可視化を行います。PythonやSQLを用いたデータ分析を行いながら、新しい技術の導入にも積極的に関わることができます。 ■具体的な業務内容 ・AWS上でのデータ解析基盤の構築・運用 ・Redshift、EMR(Spark)、Athena、RDSなどのAWSサービスを活用したデータ処理 ・PythonおよびSQLを用いたデータ解析・集計・レポート作成 ・Tableauを活用したデータの可視化・分析支援 ・技術的な課題解決および新技術の検討・導入

【Python / リモート案件紹介可能】レコメンドエンジン|モデル開発・改善プロジェクト

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxGitSVN
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手クライアントの派遣事業におけるレコメンドエンジンの改善および新規開発を担当するプロジェクトです。開発系ではデータ加工やWebAPI開発、分析系では機械学習モデルの構築やチューニングなどを担当いただきます。Python、Shell、SQLを用いた開発または分析経験が求められます。クラウド環境や大規模データ処理に興味がある方も歓迎します。 ■具体的な業務内容 開発系: ・データ加工、バッチ開発、WebAPI開発、新規技術の検証 ・Linux環境における開発およびドキュメント作成(設計書、テスト仕様書) 分析系: ・基礎分析、機械学習モデル構築、チューニング、レポーティング ・データ加工および検証作業

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python(Web開発系)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業にて、データドリブンな意思決定をサポートするデータ基盤の設計・開発・運用業務を担当していただきます。データアナリストやマーケティング担当と協力し、データ基盤の整備を行います。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・PythonやSparkを用いたアプリケーション開発 ・ETLの設計および実装

【Python(Web開発系) / 3か月以内稼働開始希望の方優先】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業のデータドリブンな意思決定を支える基盤の設計・開発・運用を行います。データアナリストやマーケティング担当、アプリケーションエンジニアと協力しながら、データ基盤の整備および改善を推進します。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・複数のデータソースを統合するシステムの開発 ・ETL開発およびデータウェアハウスの設計、運用 ・PythonもしくはSparkを用いたアプリケーション開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWS・GCPを活用したデータ基盤整備と移行プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSデータレイクからBigQueryへのデータ移行作業や、GCPデータ基盤の整備を行うプロジェクトです。PythonやSparkを活用し、データ基盤の設計・開発を進めるとともに、効率的なデータ処理環境を構築します。TerraformやCI/CDツールを利用した開発プロセスにも携わります。 ■具体的な業務内容 ・AWSデータレイク(S3 + Glue data catalog)からBigQueryへのデータ移行 ・GCPデータ基盤の整備およびワークフローエンジンの導入 ・PythonやSparkを使用したアプリケーション開発および保守 ・TerraformやCI/CDツールを利用した開発環境の整備 ・データ基盤設計および運用改善

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWSおよびGCPを活用したデータ基盤整備プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSおよびGCP環境でのデータ基盤整備プロジェクトです。データレイクからBigQueryへの移行作業や、GCPのデータ基盤整備を担当します。PythonやSparkを活用し、TerraformやCI/CDツールを使用した効率的な基盤開発を進めます。 ■具体的な業務内容 ・AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 ・GCPデータ基盤の設計および整備(ワークフローエンジン導入など) ・AWS上で動作するアプリケーションの課題発見および解決 ・Python、Hive、Sparkを使用したデータ基盤の構築

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

【PHP】証券取引サービスにおける設計開発(BtoC)

400,000 〜 600,000円/月

業務委託(フリーランス)
東京都
大手町駅
PHPOracleMySQLPostgreSQLApacheNginx
サーバーサイドエンジニア
作業内容 証券取引サービスにおけるDB及び検索基盤の設計・開発を行います。PythonをI/Fとして、CassandraとSparkを利用したシステムの開発を行います。工程としては詳細設計〜テストまで一貫して担当頂きますがドキュメントの作成もお願いします。

【AWS】データレイク構築(python)

800,000円/月

業務委託(フリーランス)
東京都
六本木一丁目駅
PythonAWSGlue
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 AWS環境でデータレイクの設計および更改対応を行います。PythonやScalaを使用した大規模バッチ処理の開発経験が求められ、ビッグデータに関わる開発意欲のある方が対象です。 ■具体的な業務内容 ・データレイクの設計および構築 ・ドキュメント作成(設計資料、説明資料) ・大規模バッチ処理の開発 ・AWSサービス(Glue、EC2、S3)を使用したデータ処理

【AWS】システム開発案件

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
品川駅
JavaPythonSQLCSSHTMLWindowsLinuxMySQLDjangoSparkFlaskAWSGitHub
データサイエンティスト
作業内容 開発、運用を繰り返すイメージです。 AWS上でのデータ解析基盤の構築 画面側はPython,html,cssなどを使います。 利用するAWSサービスの候補 - Redshift,EMR(spark),Athena,RDS,EC2,VPC,CloudFormation,Lambda,StepFunction 開発工程 基本設計, 詳細設計, 実装, 単体テスト, 結合テスト, システムテスト

【Java(Spring Boot)】【業務委託(準委任)】道路交通系開発案件【リモートOK】

700,000円/月

大阪府
新大阪駅
JavaSQLSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 道路交通系開発をお任せいたします。 Hadoop上で動作する道路交通系システムの開発をご担当いただきます。 ■作業工程:詳細設計~結合テスト

【その他】予兆監視システム改修

700,000 〜 900,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
Linux
PMPMO
作業内容 プロダクトベースに開発した予兆監視システムの機能拡張・改修プロジェクトの開発

気になる案件は見つかりましたか?

お探しの条件に合った新着案件をお知らせします

あなたにピッタリ
フリーランス案件が見つかる

  • 133万件以上のフリーランス案件から一括検索

    339,120の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 5月1日(Thu)更新

    33万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:188件、②Midworks:56件、③フリコン:41件、④レバテッククリエイター:34件、⑤アットエンジニア:12件、⑥mijicaフリーランス:4件、⑦エンジニアルーム:4件、⑧ランサーズエージェント(Lancers Argent):3件、⑨Findy Freelance:3件、⑩フリーランスポート(Freelance Port):2件となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②Midworks、③フリコンであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②Midworks、③フリコンを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①フリーランスポート(Freelance Port):95万円、②Findy Freelance:94.9万円、③ROSCA freelance:92.5万円、④Midworks:84.6万円、⑤アットエンジニア:84.2万円、⑥レバテックフリーランス:81万円、⑦1 on 1 Freelance:80万円、⑧フリコン:78.8万円、⑨mijicaフリーランス:68.8万円、⑩ランサーズエージェント(Lancers Argent):65万円となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①フリーランスポート(Freelance Port)、②Findy Freelance、③ROSCA freelanceであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①フリーランスポート(Freelance Port)、②Findy Freelance、③ROSCA freelanceを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:487件、②大阪府:28件、③神奈川県:9件、④福岡県:7件、⑤愛知県:6件、⑥兵庫県:1件となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③神奈川県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③神奈川県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①サーバーサイドエンジニア:75件、②データサイエンティスト:62件、③バックエンドエンジニア:55件、④インフラエンジニア:42件、⑤エフェクトデザイナー:31件、⑥アプリケーションエンジニア:29件、⑦データベースエンジニア:27件、⑧SE:17件、⑨サーバーエンジニア:15件、⑩フロントエンドエンジニア:14件となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人は①サーバーサイドエンジニア、②データサイエンティスト、③バックエンドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:122.5万円、③PL:117.5万円、④コンサル:114.5万円、⑤ITコンサルタント:105万円、⑥QAエンジニア:103.3万円、⑦デザイナー:100.7万円、⑧フロントエンドエンジニア:99.1万円、⑨SRE:96.8万円、⑩アナリスト:95万円となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③PLであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:259件、②機械:104件、③IT:97件、④広告:84件、⑤ゲーム:64件、⑥通信:57件、⑦AI:57件、⑧SaaS:41件、⑨EC:40件、⑩ソーシャルゲーム:38件となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人は①サービス、②機械、③ITが多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③ITを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:114.5万円、③DX:105.5万円、④Sier:99.7万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦官公庁:90万円、⑧AI:88.5万円、⑨金融:87.6万円、⑩機械:87.6万円となっています。(※フリーランスHub調べ/2025年4月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③DXであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③DXを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が304件(51.7%)、常駐案件が284件(48.3%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2025年4月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は80万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は588件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。