リセット

Sparkの案件・求人一覧

1-40 / 全 587
  • NEW

【Python(Web開発系)】設備事業向け統合データ基盤の構築プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
品川駅
Python
作業内容 【案件概要】 既存のTableau環境に対し、Databricksを追加採用し、社内外データを一元的かつ効率的に管理する統合データ基盤を構築するプロジェクトです。 現状はTableauのみが導入されており、分析基盤の拡張およびデータ活用高度化が課題となっています。 Databricksを中核としたデータ基盤を新たに構築し、データレイクとDWH(データウェアハウス)を統合します。 あわせて、周辺のデータ準備処理やワークフローを整備し、持続的に運用可能なBI基盤の実現を目指します。 【作業内容】 ・Databricksを活用したデータ基盤環境の設計および構築 ・データレイクおよびDWHの統合設計 ・Pythonを用いたデータパイプラインの設計および構築 ・データ準備処理およびワークフローの整備 ・既存Tableau環境と連携したデータ活用基盤の構築

【データ分析系(Python/SQL/R/BI)】大手企業向けデータ分析基盤開発支援

750,000円/月

業務委託(フリーランス)
福岡県
呉服町駅
PythonSQLGoScalaSpark
作業内容 【案件概要】 ・大手企業向けデータ分析基盤およびETL基盤のシステム開発支援。 ・データ活用を目的としたアーキテクチャ検討から設計・実装までを担当。 ・ビッグデータ分析・加工のための分散処理基盤を構築。 ・Python/SQL/クラウド基盤/BIなどを活用したデータエンジニアリング業務。 【作業内容】 ・データ分析基盤/ETL基盤におけるアーキテクチャ検討(要件整理、方式検討、ツール選定) ・データレイク/DWH/マート構成の設計(スキーマ設計、パイプライン構成、データフロー設計) ・Python/SQLを用いたETL処理の実装(データ抽出、加工、統合、ロード処理の自動化) ・分散処理基盤(Spark、Hadoop、クラウドネイティブ基盤等)の構築・パフォーマンス最適化 ・各種データパイプラインのジョブ設計・バッチ開発 ・データ品質管理(クレンジング、検証ロジック実装、異常検知処理の整備) ・BIツール向けデータマートの整備、レポート用データセット設計 ・基盤運用に向けたドキュメント作成(設計書、データフロー図、運用手順書など) 【開発環境】 ・OS(インフラ)/クラウド(GCP、IaaS、PaaS、FaaS)、Spark、Kubernetes、Linux ・DB/Cassandra、Redis、Elasticsearch、mySQL、PostgreSQL ・ツール/JIRA、Confluence、GitLab、Slack、GoogleWorkspace ・運用/IaC(Terraform、Ansible、Helm)、CI/CD(GitLabCI、kubectl)

【Databricks/PySpark/Azure】商用車ロジスティクス可視化基盤のデータ処理最適化

880,000円/月

業務委託(フリーランス)
神奈川県
ScalaSparkAzure
サーバーエンジニア
作業内容 【作業内容】 ・Databricks(PySpark, Scala)環境のパフォーマンス最適化を行います。 ・大規模データ処理の実装・改修を担当します。 ・Azureデータ基盤のパフォーマンス改善を行います。 ・保守・構成管理およびリファクタリングを担当します。

【Java/TypeScript/Python/フルリモ】官公庁向け情報管理システムPoC開発

800,000円/月

業務委託(フリーランス)
JavaPythonSparkAzureDockerTypeScript
サーバーサイドエンジニア
作業内容 【作業内容】 来年度の本番開発に向けて、主な機能を構築してPoC実施するプロジェクトの開発部分を担当しています。 DBより情報を抽出して、帳票(Excel)出力する機能の開発を行います。また、既存仕様書をもとに自立的に開発・実装を推進し、コンテナ環境やクラウドサービスを活用したシステム構築を行います。 データ基盤やアプリケーションの品質担保や課題解決も担当していただきます。 開発(コーディング)を中心に進行します。 ※仕様書上不明瞭な部分があるため、課題管理表やチャットなどを中心にクライアントの確認程度は発生することがあります。 【求める人物像】 ・仕様書を読み解き、主体的にタスクを進められる方 ・問題解決力が高い方 ・コミュニケーション能力があり、チーム連携を重視できる方

【AWS/フルリモート】ウェルネス・運動施設向けSaaSにおけるデータ基盤エンジニア(テックリード)の案件・求人

950,000円/月

業務委託(フリーランス)
フルリモート
JavaPythonSQLSparkAWSGoogle Cloud PlatformSnowflakeCDKTerraformCloudFormation
作業内容 ・新データ基盤の設計・構築(AWS/BigQuery/Snowflake等) ・ETL/ELTパイプラインの改善・最適化 ・データモデル設計/マルチテナント対応 ・データガバナンス、セキュリティ設計・運用、コンプライアンス対応 ・全社業務データ/IoTデータ/行動データの統合管理 ・BIツール連携設計 ・データ基盤運用・最適化、チーム技術育成・レビュー (工程)要件定義、設計、構築、運用、最適化、技術リード (開発環境) 言語:Python/Go/Java クラウド:AWS/GCP/Snowflake IaC:Terraform/CloudFormation/CDK DWH:BigQuery/RDBMS その他:Kafka/Pub/Sub/Spark/dbt/Trocco ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

【Databricks/SQL/Python/フルリモート】データ解析システム構築支援案件

800,000円/月

業務委託(フリーランス)
PythonSQLHadoopSparkApacheGitKafka
サーバーサイドエンジニア
作業内容 【募集背景】 【作業内容】 Databricksによるデータ解析システムの構築支援(設計/実装/テスト)を行います。 【求める人物像】 受け身や指示待ちでなく、主体的に業務に取り組み積極的に行動できる方。 チームメンバーとも積極的にコミュニケーションが取れ、チームとしての動きを意識できる方。 前向きに仕事と向き合える方。 周囲に対して気配りができる方。 【ポジションの魅力】 最新のデータ解析技術に携わり、スキルアップを図ることができます。 【開発環境】 Databricks、Azure Blob Storage、Azure Data Factory、SQL/Python、Power BI

【Java/JavaScript】《建築会社向け》会計パッケージの開発、保守(リモート)

600,000円/月

業務委託(フリーランス)
東京都
半蔵門駅
JavaJavaScriptHTMLDynamoDBCassandraSpringSparkAngularAWSApacheAuroraElasticsearch
バックエンドエンジニア
作業内容 ・基本設計~結合テスト、保守をご担当 ・フロント:Javascript、Angular、HTML ・サーバー:Java8、Spring Boot、Elasticsearch、Apache Spark ・DB:AWS Aurora、AWS DynamoDB、Apache Cassandra ・インフラ:AWS EC2、S3、EBS、ElastiCache

【Python】需要予測サービスの導入支援

700,000円/月

業務委託(フリーランス)
東京都
錦糸町駅
PythonSpark
作業内容 ・小売業向け需要予測サービスの導入支援 ・ベンダー側SEとして要件定義から導入までの対応 ・お客様からの要望に合わせて下記対応 -モデルに読み込ませるデータの加工、ストレージへの対応 -モデル構築、インターフェースの開発 -システムの移行、データの移行(パフォーマンス検証)

電力データ活用基盤移行に伴うインフラ基盤設計/構築支援【AWS(リモート)】

800,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
HadoopSparkAWS
インフラエンジニア
作業内容 ・詳細設計書の執筆 ・パラメータシート作成 ・検証環境の構築 ・基盤の構築作業 ・単体/結合試験項目書の作成、テストの実施 ・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます

【データ分析系(Python/SQL/R/BI)】データ蓄積基盤構築プロジェクのデータパイプラインの設計・構築

850,000円/月

業務委託(フリーランス)
東京都
三田駅
PythonSQLAWSGlueAthenaLambda
作業内容 Databricks on AWS 環境におけるデータ蓄積基盤構築プロジェクトにて、データパイプラインの設計・構築を担当いただきます。 データエンジニアリングの実務経験を活かし、最適なデータフロー設計と処理基盤の整備を推進できる方を募集しています。 【業務内容】 Databricks on AWS 環境でのデータパイプライン設計・構築 データ蓄積基盤の要件定義・設計支援 各種データソースからのデータ収集・加工・統合処理 性能最適化および運用性向上に向けた改善提案 【稼働日数】週5日 【リモート日数】フルリモート

Saasプロダクトデータ基盤構築【Python(リモート)】

750,000円/月

業務委託(フリーランス)
東京都
PythonSQLSparkAWSDocker
バックエンドエンジニア
作業内容 ・在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 ・顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリフレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、Step Functions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry

【Python、SQL】データ基盤構築/改善(リモート)

750,000円/月

業務委託(フリーランス)
東京都
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformAthena
作業内容 ・データ基盤構築/改善PJ支援 ・データエンジニアとして下記支援を実施 -データ基盤構築/改善/課題解決 -データ処理/管理/収集 -Webクローリング/スクレイピング等のデータ活用周りを支援

【Azure】顧客DWH移行支援作業(リモート)

800,000円/月

業務委託(フリーランス)
東京都
大手町駅
SQLAzure
インフラエンジニア
作業内容 ・DIH(Data Integration Hub)からADF(Azure Data Factory)への移行作業 ・ADF移行方針決定、検証、連携テスト

データ分析及びバックエンド開発業務【Python】

900,000円/月

業務委託(フリーランス)
東京都
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

【Java/リモート併用】広告配信システム・社内向けのWeb管理画面のバックエンド開発の案件・求人

950,000円/月

業務委託(フリーランス)
東京都
渋谷駅
JavaScala
バックエンドエンジニア
作業内容 国内最大級のインターネット広告配信プラットフォームのシステムの設計、開発。 広告配信システム、大規模データ処理、分析、Web開発など多様な領域で開発を行う事ができ、多様なスキルを求められることになります。 ・広告配信システムのサーバサイド開発 ・広告配信システムや社内向けのWeb管理画面開発 ・Hadoopなどの大規模データ向け基盤を活用した開発 【開発環境】 言語:Scala, Kotlin, Python, Java DB:MySQL KVS:Redis データ基盤:Hadoop(Hive, Spark) その他ミドルウェア:Apache Kafka, Docker インフラストラクチャ:オンプレミス、GCP、AWS バージョン管理システム:Git(Github Enterprise) コラボレーションツール:Slack, Workplace, Confluence, JIRA, Google Workspace ■作業環境__:Windows/Mac選択可 ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

AI開発やバックエンド開発【バックエンド】

1,000,000円/月

業務委託(フリーランス)
東京都
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

【Python/フルリモート】薬局向けアプリケーション開発エンジニアの案件・求人

800,000円/月

業務委託(フリーランス)
フルリモート
PythonAWS
作業内容 薬局経営を支援する薬局ダッシュボードの画面・機能開発する責務を担っていただきます。 現状の薬局経営は、経営者による意思決定の質のばらつき、現場薬剤師に適切な説明責任を果たすことができない、分析にコストがかかるなどの課題が存在しています。 このダッシュボードは、薬局経営のオーナーや現場薬剤師に対して、薬歴業務・収益・患者関係性の項目を可視化することで、薬局経営の日々の業務改善の意思決定をサポートするサービスとなります。 (開発環境) ・React、Next ・TypeScript ・AWS(Cognito、Amplify、API Gateway、Lambda、RDS、S3) ・Python ・その他(GitHub、Datadog、Google Analytics、GTM、KARTE) ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

【Node.js/TypeScript】自動車向けデータ分析プラットフォーム開発

800,000円/月

業務委託(フリーランス)
東京都
池袋駅
Node.jsSparkTypeScriptKafka
バックエンドエンジニア
作業内容 【20代~40代の方向け】 自動車の走行データを解析・提供するプラットフォームのバックエンド開発です。 Node.js(TypeScript)を使用して、データストリームの処理、分析結果のAPI化、レポート作成機能の開発を担当します。

【リモート併用※初日~2週間程度は常駐】大手メーカー向けデータ利活用支援

640,000円/月

業務委託(フリーランス)
東京都
PythonSQLAWSGlue
データサイエンティスト
作業内容 ・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。

【リモート併用※初日~2週間程度は常駐】大手メーカー向けデータ利活用支援

640,000円/月

業務委託(フリーランス)
東京都
PythonSQLSparkAWSGlue
データサイエンティスト
作業内容 ・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・10月以降はデータ収集・加工プログラムの開発やダッシュボード開発を予定しています。

バトル演出デザイナー/Unity・AfterEffects/ゲーム開発

400,000 〜 750,000円/月

業務委託(フリーランス)
東京都
渋谷駅
Unity
3Dデザイナーデザイナー
作業内容 爽快マッチパズルゲームを代表作として、本格王道RPGゲームを中心にゲームの企画・開発を行う会社にて、ゲーム開発におけるバトル演出デザイナー業務をお任せします。   ■□具体的には…□■ ・キャラクター、モンスターの必殺技/魔法演出作成(Unity/Photoshop/AfterEffects/SPARK GEARを使用)   <こんな方におすすめです!> ・スキルアップしたい方 ・ゲーム開発に携わりたい方

【Python / リモート案件ご紹介可能】AWSデータ解析基盤開発(大手メーカー内バックオフィス業務)

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
JavaPythonSQLCSSHTMLSparkAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務を支えるデータ解析基盤の開発を担当します。AWSを活用し、RedshiftやEMR(Spark)、Athenaなどのデータ処理技術を用いたシステムを構築します。Pythonを中心としたデータ処理・分析のスキルが求められます。 ■具体的な業務内容 ・AWS環境上でのデータ解析基盤の設計・開発 ・Pythonを用いたデータ処理スクリプトの作成 ・SQLを用いたデータ抽出・集計処理の実装 ・AWS Lambda、Step Functionsを活用したワークフロー構築 ・Tableauを用いたデータ可視化(可能であれば対応)

【AWS / リモート案件ご紹介可能】大手自動車メーカー向けAWS基盤設計・構築

700,000円/月

業務委託(フリーランス)
東京都
大手町駅
LinuxAWS
作業内容 ★エンジニア実務経験2年以上 / ブランクのない方が対象の案件です!!★ ■概要 大手自動車会社のIoT基盤を支えるAWS上のサーバ基盤運用における設計・構築業務を担当するプロジェクトです。オンプレミスからクラウドに移行したシステムにおいて、AWSの各種マネージドサービスやHadoopエコシステムを活用し、安定した基盤運用を目指します。長期的な支援が見込まれるため、スキルを深める環境が整っています。 ■具体的な業務内容 ・AWS環境でのサーバ設計・構築業務 ・運用設計の策定および運用支援 ・Hadoopエコシステム(Apache Spark、Kafkaなど)を用いたデータ基盤構築 ・AWSマネージドサービスの活用および最適化

【Python / リモート案件紹介可能】大規模データ活用基盤改善/データ分析基盤エンジニア

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手人材派遣会社における派遣領域のデータ活用基盤を対象とした改善・保守運用を担当します。レコメンドエンジンを提供するデータ基盤や分析環境の改善に加え、クラウドサービスやミドルウェアの新規技術検証、簡易的な機械学習モデルのチューニングなども手掛けます。大規模データ処理やPython、Linux環境での開発経験を活かし、データ基盤の構築に貢献できるポジションです。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤・分析環境の改善および保守運用 ・クラウドサービスやミドルウェアの新規技術検証 ・簡易的な機械学習モデルのチューニングやデータ分析 ・大規模データ処理基盤に関する運用業務(Hadoop, Spark, Treasure Data) ・インフラ関連ツール(Docker、CI/CD)の業務運用および保守

【Python / リモート案件紹介可能】大規模データ基盤エンジニア×レコメンドエンジン運用

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 派遣業界向けの大規模データ活用基盤の改善・保守を行うプロジェクトです。レコメンドエンジンの運用や分析環境の改善、クラウド環境の技術検証を通じて、より高度なデータ分析基盤の構築に貢献します。必要に応じて、簡易的な機械学習モデルのチューニングやデータ分析業務も担当します。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤の改善および保守運用 ・AWSやGCPを活用したクラウド環境での開発および運用業務 ・Python、Shell、SQLを用いたデータ処理およびスクリプト作成 ・新規クラウドサービスやミドルウェアの技術検証 ・簡易的な機械学習モデルのチューニングおよびデータ分析

【20〜40代/週5稼働可能な方歓迎】新規プロダクト開発サーバーサイドエンジニア(Python×AWS)【Python(Web開発系)】

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトの開発において、AWSを活用したサーバーサイドの設計および開発を担当します。ETL処理やAPI開発を中心に、技術的知見を活かしてプロダクトオーナーと連携し、仕様策定やリソース活用を進めます。データベース設計や大規模データ処理経験がある方が特に歓迎されます。 ■具体的な業務内容 ・RDBのデータベース設計および構築 ・Glue JobでPythonを使用したETL処理の設計および開発 ・API GatewayおよびLambdaを活用したAPI開発 ・AWSリソースの活用によるプロダクト開発支援 ・git flowベースのチーム開発およびリリース管理

【Python(Web開発系) / リモート案件紹介可能】AWS活用×新規プロダクト/サーバーサイドエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトのサーバーサイド開発を担当するプロジェクトです。主にAWSのリソースを活用し、API GatewayやLambdaを利用したAPI開発やGlue Jobを用いたETL処理の設計・開発を行います。プロダクトオーナーとの仕様策定やデータベース設計を担当するだけでなく、データ処理やAPIの最適化にも携わり、幅広い知識を身に付けることが可能です。 ■具体的な業務内容 ・RDBのデータベース設計および開発 ・Glue Jobを利用したETL処理の設計・開発 ・API Gateway、Lambdaを利用したAPI開発 ・AWSリソースを活用したプロダクト開発の設計・実装 ・技術的知見を活かしたプロダクトオーナーとの仕様策定 ・Git flowをベースにした開発進行

【Python】ビッグデータ解析 AWSデータ基盤構築・運用

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
PythonAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務において、ビッグデータを活用した解析システムの開発・運用を担当します。AWS上でデータ解析基盤を構築し、データの収集・処理・可視化を行います。PythonやSQLを用いたデータ分析を行いながら、新しい技術の導入にも積極的に関わることができます。 ■具体的な業務内容 ・AWS上でのデータ解析基盤の構築・運用 ・Redshift、EMR(Spark)、Athena、RDSなどのAWSサービスを活用したデータ処理 ・PythonおよびSQLを用いたデータ解析・集計・レポート作成 ・Tableauを活用したデータの可視化・分析支援 ・技術的な課題解決および新技術の検討・導入

【Python(Web開発系)】AWS活用/新規プロダクトのサーバーサイドエンジニア募集

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 AWSを活用した新規プロダクトのサーバーサイド開発を担当するプロジェクトです。API GatewayやLambdaを使用したAPI開発、Glue Jobを用いたETL処理の設計・開発を行います。また、データベース設計やAWSリソースの最適利用を進めながら、プロダクトオーナーと協力して仕様策定にも携わります。チームでの開発経験やAWSサービスの運用経験を活かせる案件です。 ■具体的な業務内容 ・RDBを使用したデータベース設計および開発 ・Glue Jobを使用したETL処理の設計・開発 ・API Gateway、Lambdaを活用したAPI設計および実装 ・AWSリソースを利用したプロダクト開発の推進 ・プロダクトオーナーとの仕様策定および要件整理 ・git flowをベースとした開発プロセスの進行

【Python / リモート案件紹介可能】レコメンドエンジン|モデル開発・改善プロジェクト

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxGitSVN
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手クライアントの派遣事業におけるレコメンドエンジンの改善および新規開発を担当するプロジェクトです。開発系ではデータ加工やWebAPI開発、分析系では機械学習モデルの構築やチューニングなどを担当いただきます。Python、Shell、SQLを用いた開発または分析経験が求められます。クラウド環境や大規模データ処理に興味がある方も歓迎します。 ■具体的な業務内容 開発系: ・データ加工、バッチ開発、WebAPI開発、新規技術の検証 ・Linux環境における開発およびドキュメント作成(設計書、テスト仕様書) 分析系: ・基礎分析、機械学習モデル構築、チューニング、レポーティング ・データ加工および検証作業

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python(Web開発系)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業にて、データドリブンな意思決定をサポートするデータ基盤の設計・開発・運用業務を担当していただきます。データアナリストやマーケティング担当と協力し、データ基盤の整備を行います。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・PythonやSparkを用いたアプリケーション開発 ・ETLの設計および実装

【Python(Web開発系)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業のデータドリブンな意思決定を支える基盤の設計・開発・運用を行います。データアナリストやマーケティング担当、アプリケーションエンジニアと協力しながら、データ基盤の整備および改善を推進します。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・複数のデータソースを統合するシステムの開発 ・ETL開発およびデータウェアハウスの設計、運用 ・PythonもしくはSparkを用いたアプリケーション開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWS・GCPを活用したデータ基盤整備と移行プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSデータレイクからBigQueryへのデータ移行作業や、GCPデータ基盤の整備を行うプロジェクトです。PythonやSparkを活用し、データ基盤の設計・開発を進めるとともに、効率的なデータ処理環境を構築します。TerraformやCI/CDツールを利用した開発プロセスにも携わります。 ■具体的な業務内容 ・AWSデータレイク(S3 + Glue data catalog)からBigQueryへのデータ移行 ・GCPデータ基盤の整備およびワークフローエンジンの導入 ・PythonやSparkを使用したアプリケーション開発および保守 ・TerraformやCI/CDツールを利用した開発環境の整備 ・データ基盤設計および運用改善

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWSおよびGCPを活用したデータ基盤整備プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSおよびGCP環境でのデータ基盤整備プロジェクトです。データレイクからBigQueryへの移行作業や、GCPのデータ基盤整備を担当します。PythonやSparkを活用し、TerraformやCI/CDツールを使用した効率的な基盤開発を進めます。 ■具体的な業務内容 ・AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 ・GCPデータ基盤の設計および整備(ワークフローエンジン導入など) ・AWS上で動作するアプリケーションの課題発見および解決 ・Python、Hive、Sparkを使用したデータ基盤の構築

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

【PHP】証券取引サービスにおける設計開発(BtoC)

400,000 〜 600,000円/月

業務委託(フリーランス)
東京都
大手町駅
PHPOracleMySQLPostgreSQLApacheNginx
サーバーサイドエンジニア
作業内容 証券取引サービスにおけるDB及び検索基盤の設計・開発を行います。PythonをI/Fとして、CassandraとSparkを利用したシステムの開発を行います。工程としては詳細設計〜テストまで一貫して担当頂きますがドキュメントの作成もお願いします。

【Unity / 3か月以内稼働開始希望の方優先】スマートフォン向けゲームコンテンツのエフェクトデザイン業務

650,000円/月

業務委託(フリーランス)
東京都
都庁前駅
SparkFlashUnitySpriteStudioBISHAMON
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 スマートフォン向けゲームのエフェクトデザイナーを募集しています。魔法やスキル、背景エフェクトの制作に加え、画面演出や文字演出の制作も行います。 ■具体的な作業内容 ・魔法やスキルのエフェクト制作 ・背景(環境)エフェクト制作 ・画面および文字演出の制作

気になる案件は見つかりましたか?

お探しの条件に合った新着案件をお知らせします

あなたにピッタリ
フリーランス案件が見つかる

  • 133万件以上のフリーランス案件から一括検索

    331,787の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 1月17日(Sat)更新

    33万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:197件、②Midworks:59件、③フリコン:59件、④レバテッククリエイター:37件、⑤テックリーチ:21件、⑥アットエンジニア:12件、⑦ココナラテック(旧:フリエン/furien):10件、⑧Findy Freelance:9件、⑨mijicaフリーランス:4件、⑩ROSCA freelance:3件となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②Midworks、③フリコンであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②Midworks、③フリコンを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①Findy Freelance:107.2万円、②フリーランスポート(Freelance Port):95万円、③ROSCA freelance:90万円、④Midworks:84.4万円、⑤アットエンジニア:84.2万円、⑥レバテックフリーランス:80.7万円、⑦ココナラテック(旧:フリエン/furien):79万円、⑧フリコン:78万円、⑨テックリーチ:77.1万円、⑩コンプロフリーランス:75万円となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①Findy Freelance、②フリーランスポート(Freelance Port)、③ROSCA freelanceであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①Findy Freelance、②フリーランスポート(Freelance Port)、③ROSCA freelanceを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:480件、②大阪府:22件、③神奈川県:9件、④愛知県:8件、⑤福岡県:8件、⑥兵庫県:3件となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③神奈川県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③神奈川県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①バックエンドエンジニア:65件、②データサイエンティスト:63件、③サーバーサイドエンジニア:53件、④インフラエンジニア:46件、⑤エフェクトデザイナー:32件、⑥アプリケーションエンジニア:29件、⑦データベースエンジニア:28件、⑧PM:16件、⑨SE:15件、⑩フロントエンドエンジニア:15件となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人は①バックエンドエンジニア、②データサイエンティスト、③サーバーサイドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:120万円、③コンサル:112.5万円、④テスター:110万円、⑤ITコンサルタント:106.7万円、⑥SRE:105.9万円、⑦機械学習エンジニア:101.8万円、⑧フロントエンドエンジニア:98.8万円、⑨PL:98万円、⑩QAエンジニア:97.5万円となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③コンサルであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:256件、②機械:99件、③広告:76件、④IT:72件、⑤ゲーム:66件、⑥AI:62件、⑦通信:47件、⑧SaaS:43件、⑨ソーシャルゲーム:41件、⑩EC:41件となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人は①サービス、②機械、③広告が多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③広告を中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②Sier:125万円、③コンサル:112.5万円、④医療・福祉:100万円、⑤DX:97.5万円、⑥AI:94.6万円、⑦メディア:93.8万円、⑧化学:92.5万円、⑨製薬:90万円、⑩金融:89万円となっています。(※フリーランスHub調べ/2026年1月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②Sier、③コンサルであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②Sier、③コンサルを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が308件(52.5%)、常駐案件が279件(47.5%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2026年1月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は81万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は587件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。