Sparkの案件・求人一覧

1-40 / 全 634

【Databricks/AWS】データ分析基盤構築案件

700,000円/月

業務委託(フリーランス)
愛知県
伏見駅
SparkAWS
サーバーエンジニアデータベースエンジニア
作業内容 ・Databricksを活用してAWS上にデータ分析基盤を構築するための技術検証など作業に携わっていただきます。 ・主に下記作業をご担当いただきます。 - 要件定義 - 基本設計 - 詳細設計 - 技術検証

【Java/TypeScript/Python/フルリモ】官公庁向け情報管理システムPoC開発

800,000円/月

業務委託(フリーランス)
JavaPythonSparkAzureDockerTypeScript
サーバーサイドエンジニア
作業内容 【作業内容】 来年度の本番開発に向けて、主な機能を構築してPoC実施するプロジェクトの開発部分を担当しています。 DBより情報を抽出して、帳票(Excel)出力する機能の開発を行います。また、既存仕様書をもとに自立的に開発・実装を推進し、コンテナ環境やクラウドサービスを活用したシステム構築を行います。 データ基盤やアプリケーションの品質担保や課題解決も担当していただきます。 開発(コーディング)を中心に進行します。 ※仕様書上不明瞭な部分があるため、課題管理表やチャットなどを中心にクライアントの確認程度は発生することがあります。 【求める人物像】 ・仕様書を読み解き、主体的にタスクを進められる方 ・問題解決力が高い方 ・コミュニケーション能力があり、チーム連携を重視できる方

【AWS/Databricks】データ分析基盤構築案件

700,000円/月

業務委託(フリーランス)
愛知県
伏見駅
SparkAWS
データサイエンティスト
作業内容 ・データ分析基盤構築案件に携わっていただきます。 ・主に下記のような作業をご担当いただきます。  ‐Databricksを活用したAWS上へのデータ分析基盤構築

【AWS/フルリモート】ウェルネス・運動施設向けSaaSにおけるデータ基盤エンジニア(テックリード)の案件・求人

950,000円/月

業務委託(フリーランス)
フルリモート
JavaPythonSQLSparkAWSGoogle Cloud PlatformSnowflakeCDKTerraformCloudFormation
作業内容 ・新データ基盤の設計・構築(AWS/BigQuery/Snowflake等) ・ETL/ELTパイプラインの改善・最適化 ・データモデル設計/マルチテナント対応 ・データガバナンス、セキュリティ設計・運用、コンプライアンス対応 ・全社業務データ/IoTデータ/行動データの統合管理 ・BIツール連携設計 ・データ基盤運用・最適化、チーム技術育成・レビュー (工程)要件定義、設計、構築、運用、最適化、技術リード (開発環境) 言語:Python/Go/Java クラウド:AWS/GCP/Snowflake IaC:Terraform/CloudFormation/CDK DWH:BigQuery/RDBMS その他:Kafka/Pub/Sub/Spark/dbt/Trocco ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

【AWS】大規模データ分析基盤の保守開発

600,000円/月

業務委託(フリーランス)
東京都
恵比寿駅
JavaPythonWindowsLinuxSparkAWSGitLambda
インフラエンジニア
作業内容 ・AWS環境下でのサーバ構築やシステム開発 ・SparkやEMRを用いたデータ分析/抽出 ・データ集計/手動更新、テストデータ導入 ・AWS Lambdaを用いたジョブ稼働コントロール他

【Python】需要予測サービスの導入支援

700,000円/月

業務委託(フリーランス)
東京都
錦糸町駅
PythonSpark
作業内容 ・小売業向け需要予測サービスの導入支援 ・ベンダー側SEとして要件定義から導入までの対応 ・お客様からの要望に合わせて下記対応 -モデルに読み込ませるデータの加工、ストレージへの対応 -モデル構築、インターフェースの開発 -システムの移行、データの移行(パフォーマンス検証)

電力データ活用基盤移行に伴うインフラ基盤設計/構築支援【AWS(リモート)】

800,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
HadoopSparkAWS
インフラエンジニア
作業内容 ・詳細設計書の執筆 ・パラメータシート作成 ・検証環境の構築 ・基盤の構築作業 ・単体/結合試験項目書の作成、テストの実施 ・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます

【Python、SQL】データ基盤構築/改善(リモート)

750,000円/月

業務委託(フリーランス)
東京都
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud PlatformAthena
作業内容 ・データ基盤構築/改善PJ支援 ・データエンジニアとして下記支援を実施 -データ基盤構築/改善/課題解決 -データ処理/管理/収集 -Webクローリング/スクレイピング等のデータ活用周りを支援

【データ分析系(Python/SQL/R/BI)】データ蓄積基盤構築プロジェクのデータパイプラインの設計・構築

650,000 〜 850,000円/月

業務委託(フリーランス)
東京都
三田駅
PythonSQLAWSGlueAthenaLambda
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 Databricks on AWS を活用したデータ蓄積基盤構築プロジェクトにて、データパイプラインの設計・構築を担当いただくポジションです。データエンジニアリング経験を活かし、最適なデータフロー設計と処理基盤整備を推進します。 ■具体的な業務内容 Databricks on AWS 環境でのデータパイプライン設計・構築、データ蓄積基盤の要件定義・設計支援、各種データソースからのデータ収集・加工・統合処理、性能最適化および運用改善提案。

バトル演出デザイナー/Unity・AfterEffects/ゲーム開発

400,000 〜 750,000円/月

業務委託(フリーランス)
東京都
渋谷駅
Unity
3Dデザイナーデザイナー
作業内容 爽快マッチパズルゲームを代表作として、本格王道RPGゲームを中心にゲームの企画・開発を行う会社にて、ゲーム開発におけるバトル演出デザイナー業務をお任せします。   ■□具体的には…□■ ・キャラクター、モンスターの必殺技/魔法演出作成(Unity/Photoshop/AfterEffects/SPARK GEARを使用)   <こんな方におすすめです!> ・スキルアップしたい方 ・ゲーム開発に携わりたい方

【Java】流通向けアプリケーション開発(リモート)

800,000円/月

業務委託(フリーランス)
神奈川県
天王町駅
JavaAWS
インフラエンジニア
作業内容 ・データ分析基盤構築およびアプリケーション開発(Java、Scala、Spark) ・AWS上でのJavaバックエンド開発

【Java/JavaScript】物流会社向け会計パッケージの開発/保守(リモート)

600,000円/月

業務委託(フリーランス)
東京都
半蔵門駅
JavaJavaScriptHTMLDynamoDBCassandraSpringSparkAngularAWSApacheAuroraElasticsearch
バックエンドエンジニア
作業内容 工程:基本設計〜結合テスト、保守をご担当いただきます。
  • NEW

【Azure】顧客DWH移行支援作業(リモート)

800,000円/月

業務委託(フリーランス)
東京都
大手町駅
SQLAzure
インフラエンジニア
作業内容 ・DIH(Data Integration Hub)からADF(Azure Data Factory)への移行作業 ・ADF移行方針決定、検証、連携テスト

【Go】アプリケーションの開発や運用業務(リモート)

650,000円/月

業務委託(フリーランス)
東京都
目黒駅
Go
バックエンドエンジニア
作業内容 kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善

データ分析及びバックエンド開発業務【Python】

900,000円/月

業務委託(フリーランス)
東京都
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

AI開発やバックエンド開発【バックエンド】

1,000,000円/月

業務委託(フリーランス)
東京都
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換) ・モデリング ・SQLを用いたデータベース操作 ・PythonによるAPI開発

【Java/リモート併用】広告配信システム・社内向けのWeb管理画面のバックエンド開発の案件・求人

950,000円/月

業務委託(フリーランス)
東京都
渋谷駅
JavaScala
バックエンドエンジニア
作業内容 国内最大級のインターネット広告配信プラットフォームのシステムの設計、開発。 広告配信システム、大規模データ処理、分析、Web開発など多様な領域で開発を行う事ができ、多様なスキルを求められることになります。 ・広告配信システムのサーバサイド開発 ・広告配信システムや社内向けのWeb管理画面開発 ・Hadoopなどの大規模データ向け基盤を活用した開発 【開発環境】 言語:Scala, Kotlin, Python, Java DB:MySQL KVS:Redis データ基盤:Hadoop(Hive, Spark) その他ミドルウェア:Apache Kafka, Docker インフラストラクチャ:オンプレミス、GCP、AWS バージョン管理システム:Git(Github Enterprise) コラボレーションツール:Slack, Workplace, Confluence, JIRA, Google Workspace ■作業環境__:Windows/Mac選択可 ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

【Python/フルリモート】薬局向けアプリケーション開発エンジニアの案件・求人

800,000円/月

業務委託(フリーランス)
フルリモート
PythonAWS
作業内容 薬局経営を支援する薬局ダッシュボードの画面・機能開発する責務を担っていただきます。 現状の薬局経営は、経営者による意思決定の質のばらつき、現場薬剤師に適切な説明責任を果たすことができない、分析にコストがかかるなどの課題が存在しています。 このダッシュボードは、薬局経営のオーナーや現場薬剤師に対して、薬歴業務・収益・患者関係性の項目を可視化することで、薬局経営の日々の業務改善の意思決定をサポートするサービスとなります。 (開発環境) ・React、Next ・TypeScript ・AWS(Cognito、Amplify、API Gateway、Lambda、RDS、S3) ・Python ・その他(GitHub、Datadog、Google Analytics、GTM、KARTE) ※当案件におきましては、直近参画期間が半年以内の案件が続いている方はお見送りとなります。(但し、企業都合退場は対象外) ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~30代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~

【週4-5日/フルリモート/LangChain,LangGraph】LLMエンジニア|生成AIで意思決定革新

1,600,000円/月

業務委託(フリーランス)
Python
作業内容 -------------------------------- ※「エンジニアとしての実務経験3年以上」「必須要件に記載されている言語の実務経験が2年以上」の方が対象の案件です ※外国籍の方は、「日本語能力検定1級」「日本語が母国語の方」の方が対象です ※20代〜40代の経験者が望ましい案件です ※すでにFindy Freelanceで担当がついている方は、直接ご連絡いただいた方がスムーズです -------------------------------- 我々は生成AIとデータ統合を組み合わせて25兆円の意思決定市場を創出することを目指すスタートアップです。 単なるマーケティング支援にとどまらず、AIを用いた“意思決定の高度化”に挑戦しており、マーケティング・HR・キャリアなどグロースに直結する領域で複数のプロダクトを展開しています。 大規模データ基盤の設計・構築、RAG実装、API化などを通じ、革新的プロダクトの成長を牽引する体制強化を図るため、技術力と創造性に優れたエンジニアを募集します。 ▼具体的な業務内容 - LLMを用いたエージェントの構築 - RAGにおけるRetrieverの実装 - LLMOpsの整備(運用自動化含む) - CI/CDパイプラインの構築と、エージェントの継続的デプロイ - エージェントを用いたAPIの実装 ▼上記業務に慣れてきたら以下にもトライいただきたいです - データマートの設計・構築・運用 - BIツール (Tableau, Lookerなど) を用いたデータ可視化基盤の構築・運用 - Deep Learningモデルのモデリングおよびそのためのpre-processing ▼このポジションの魅力 - 大規模データ処理やクラウド環境でのデータ基盤構築、最新AI技術(LLMなど)に実践的に携る事が可能 - 生成AIやLLMを活用したエージェント開発に携わり、実際のプロダクトの進化に貢献できる - 企業の成長に直結するサービスに貢献ができる - データパイプラインやデータウェアハウスの設計・運用を通じ、企業の意思決定基盤に携わる事が可能 - Python、Node.js、Airflow、Spark、Flink、Tableauなど、多様な技術を駆使してスキルの幅が広げられる - 自由度の高い開発環境で新しい技術を試せる - エンジニアリングとプロダクトの両方の視点を養える - 迅速かつ効率的なアジャイル開発で即座にアイデアを形にできる - エンジニア同士の学び合いを大切にする環境

【Node.js/TypeScript】自動車向けデータ分析プラットフォーム開発

800,000円/月

業務委託(フリーランス)
東京都
池袋駅
Node.jsSparkTypeScriptKafka
バックエンドエンジニア
作業内容 【20代~40代の方向け】 自動車の走行データを解析・提供するプラットフォームのバックエンド開発です。 Node.js(TypeScript)を使用して、データストリームの処理、分析結果のAPI化、レポート作成機能の開発を担当します。

【リモート併用※初日~2週間程度は常駐】大手メーカー向けデータ利活用支援

640,000円/月

業務委託(フリーランス)
東京都
PythonSQLAWSGlue
データサイエンティスト
作業内容 ・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。

【Python / リモート案件ご紹介可能】AWSデータ解析基盤開発(大手メーカー内バックオフィス業務)

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
JavaPythonSQLCSSHTMLSparkAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務を支えるデータ解析基盤の開発を担当します。AWSを活用し、RedshiftやEMR(Spark)、Athenaなどのデータ処理技術を用いたシステムを構築します。Pythonを中心としたデータ処理・分析のスキルが求められます。 ■具体的な業務内容 ・AWS環境上でのデータ解析基盤の設計・開発 ・Pythonを用いたデータ処理スクリプトの作成 ・SQLを用いたデータ抽出・集計処理の実装 ・AWS Lambda、Step Functionsを活用したワークフロー構築 ・Tableauを用いたデータ可視化(可能であれば対応)

【Python】Pythonによる開発経験者募集(分析基盤システム開発支援)(20代〜40代活躍中!・週4日以上稼働可能な方にぴったり!)

500,000円/月

業務委託(フリーランス)
東京都
竹芝駅
PythonSQLSpark
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 小売業向けの分析基盤システムの開発を担当します。要件定義から導入までの一連のシステム開発を進め、PythonやSQLを用いたデータ分析および基盤構築に携わります。 ■具体的な業務内容 ・PythonおよびSQLを用いたデータ分析および基盤構築 ・要件定義から導入までのシステム開発プロセスの遂行 ・AzureおよびDatabricksの活用に関する調査および提案 ・統計手法を用いたデータ分析および改善提案 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

【AWS / リモート案件ご紹介可能】大手自動車メーカー向けAWS基盤設計・構築

700,000円/月

業務委託(フリーランス)
東京都
大手町駅
LinuxAWS
作業内容 ★エンジニア実務経験2年以上 / ブランクのない方が対象の案件です!!★ ■概要 大手自動車会社のIoT基盤を支えるAWS上のサーバ基盤運用における設計・構築業務を担当するプロジェクトです。オンプレミスからクラウドに移行したシステムにおいて、AWSの各種マネージドサービスやHadoopエコシステムを活用し、安定した基盤運用を目指します。長期的な支援が見込まれるため、スキルを深める環境が整っています。 ■具体的な業務内容 ・AWS環境でのサーバ設計・構築業務 ・運用設計の策定および運用支援 ・Hadoopエコシステム(Apache Spark、Kafkaなど)を用いたデータ基盤構築 ・AWSマネージドサービスの活用および最適化

【Python / リモート案件紹介可能】大規模データ活用基盤改善/データ分析基盤エンジニア

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手人材派遣会社における派遣領域のデータ活用基盤を対象とした改善・保守運用を担当します。レコメンドエンジンを提供するデータ基盤や分析環境の改善に加え、クラウドサービスやミドルウェアの新規技術検証、簡易的な機械学習モデルのチューニングなども手掛けます。大規模データ処理やPython、Linux環境での開発経験を活かし、データ基盤の構築に貢献できるポジションです。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤・分析環境の改善および保守運用 ・クラウドサービスやミドルウェアの新規技術検証 ・簡易的な機械学習モデルのチューニングやデータ分析 ・大規模データ処理基盤に関する運用業務(Hadoop, Spark, Treasure Data) ・インフラ関連ツール(Docker、CI/CD)の業務運用および保守

【Python】新データベース構築支援

530,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
PythonSQL
データベースエンジニア
作業内容 【20代~40代の方向け】 現行のものからデータベースを移行するにあたり、新しいデータベースの構築業務に携わって頂きます。 データのETL処理にdatabricksを使用するため、databricks及びPythonでの業務をご担当いただく予定です。 

【20〜40代/週5稼働可能な方歓迎】新規プロダクト開発サーバーサイドエンジニア(Python×AWS)【Python(Web開発系)】

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトの開発において、AWSを活用したサーバーサイドの設計および開発を担当します。ETL処理やAPI開発を中心に、技術的知見を活かしてプロダクトオーナーと連携し、仕様策定やリソース活用を進めます。データベース設計や大規模データ処理経験がある方が特に歓迎されます。 ■具体的な業務内容 ・RDBのデータベース設計および構築 ・Glue JobでPythonを使用したETL処理の設計および開発 ・API GatewayおよびLambdaを活用したAPI開発 ・AWSリソースの活用によるプロダクト開発支援 ・git flowベースのチーム開発およびリリース管理

【Python / リモート案件紹介可能】大規模データ基盤エンジニア×レコメンドエンジン運用

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 派遣業界向けの大規模データ活用基盤の改善・保守を行うプロジェクトです。レコメンドエンジンの運用や分析環境の改善、クラウド環境の技術検証を通じて、より高度なデータ分析基盤の構築に貢献します。必要に応じて、簡易的な機械学習モデルのチューニングやデータ分析業務も担当します。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤の改善および保守運用 ・AWSやGCPを活用したクラウド環境での開発および運用業務 ・Python、Shell、SQLを用いたデータ処理およびスクリプト作成 ・新規クラウドサービスやミドルウェアの技術検証 ・簡易的な機械学習モデルのチューニングおよびデータ分析

【Python(Web開発系) / リモート案件紹介可能】AWS活用×新規プロダクト/サーバーサイドエンジニア

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 新規プロダクトのサーバーサイド開発を担当するプロジェクトです。主にAWSのリソースを活用し、API GatewayやLambdaを利用したAPI開発やGlue Jobを用いたETL処理の設計・開発を行います。プロダクトオーナーとの仕様策定やデータベース設計を担当するだけでなく、データ処理やAPIの最適化にも携わり、幅広い知識を身に付けることが可能です。 ■具体的な業務内容 ・RDBのデータベース設計および開発 ・Glue Jobを利用したETL処理の設計・開発 ・API Gateway、Lambdaを利用したAPI開発 ・AWSリソースを活用したプロダクト開発の設計・実装 ・技術的知見を活かしたプロダクトオーナーとの仕様策定 ・Git flowをベースにした開発進行

【Python(Web開発系)】AWS活用/新規プロダクトのサーバーサイドエンジニア募集

1,000,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonAWS
サーバーサイドエンジニア
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 AWSを活用した新規プロダクトのサーバーサイド開発を担当するプロジェクトです。API GatewayやLambdaを使用したAPI開発、Glue Jobを用いたETL処理の設計・開発を行います。また、データベース設計やAWSリソースの最適利用を進めながら、プロダクトオーナーと協力して仕様策定にも携わります。チームでの開発経験やAWSサービスの運用経験を活かせる案件です。 ■具体的な業務内容 ・RDBを使用したデータベース設計および開発 ・Glue Jobを使用したETL処理の設計・開発 ・API Gateway、Lambdaを活用したAPI設計および実装 ・AWSリソースを利用したプロダクト開発の推進 ・プロダクトオーナーとの仕様策定および要件整理 ・git flowをベースとした開発プロセスの進行

【Python】ビッグデータ解析 AWSデータ基盤構築・運用

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
PythonAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務において、ビッグデータを活用した解析システムの開発・運用を担当します。AWS上でデータ解析基盤を構築し、データの収集・処理・可視化を行います。PythonやSQLを用いたデータ分析を行いながら、新しい技術の導入にも積極的に関わることができます。 ■具体的な業務内容 ・AWS上でのデータ解析基盤の構築・運用 ・Redshift、EMR(Spark)、Athena、RDSなどのAWSサービスを活用したデータ処理 ・PythonおよびSQLを用いたデータ解析・集計・レポート作成 ・Tableauを活用したデータの可視化・分析支援 ・技術的な課題解決および新技術の検討・導入

【Python / リモート案件紹介可能】レコメンドエンジン|モデル開発・改善プロジェクト

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxGitSVN
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手クライアントの派遣事業におけるレコメンドエンジンの改善および新規開発を担当するプロジェクトです。開発系ではデータ加工やWebAPI開発、分析系では機械学習モデルの構築やチューニングなどを担当いただきます。Python、Shell、SQLを用いた開発または分析経験が求められます。クラウド環境や大規模データ処理に興味がある方も歓迎します。 ■具体的な業務内容 開発系: ・データ加工、バッチ開発、WebAPI開発、新規技術の検証 ・Linux環境における開発およびドキュメント作成(設計書、テスト仕様書) 分析系: ・基礎分析、機械学習モデル構築、チューニング、レポーティング ・データ加工および検証作業

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python(Web開発系)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業にて、データドリブンな意思決定をサポートするデータ基盤の設計・開発・運用業務を担当していただきます。データアナリストやマーケティング担当と協力し、データ基盤の整備を行います。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・PythonやSparkを用いたアプリケーション開発 ・ETLの設計および実装

【Python(Web開発系)】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業のデータドリブンな意思決定を支える基盤の設計・開発・運用を行います。データアナリストやマーケティング担当、アプリケーションエンジニアと協力しながら、データ基盤の整備および改善を推進します。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・複数のデータソースを統合するシステムの開発 ・ETL開発およびデータウェアハウスの設計、運用 ・PythonもしくはSparkを用いたアプリケーション開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWS・GCPを活用したデータ基盤整備と移行プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSデータレイクからBigQueryへのデータ移行作業や、GCPデータ基盤の整備を行うプロジェクトです。PythonやSparkを活用し、データ基盤の設計・開発を進めるとともに、効率的なデータ処理環境を構築します。TerraformやCI/CDツールを利用した開発プロセスにも携わります。 ■具体的な業務内容 ・AWSデータレイク(S3 + Glue data catalog)からBigQueryへのデータ移行 ・GCPデータ基盤の整備およびワークフローエンジンの導入 ・PythonやSparkを使用したアプリケーション開発および保守 ・TerraformやCI/CDツールを利用した開発環境の整備 ・データ基盤設計および運用改善

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWSおよびGCPを活用したデータ基盤整備プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSおよびGCP環境でのデータ基盤整備プロジェクトです。データレイクからBigQueryへの移行作業や、GCPのデータ基盤整備を担当します。PythonやSparkを活用し、TerraformやCI/CDツールを使用した効率的な基盤開発を進めます。 ■具体的な業務内容 ・AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 ・GCPデータ基盤の設計および整備(ワークフローエンジン導入など) ・AWS上で動作するアプリケーションの課題発見および解決 ・Python、Hive、Sparkを使用したデータ基盤の構築

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

気になる案件は見つかりましたか?

お探しの条件に合った新着案件をお知らせします

あなたにピッタリ
フリーランス案件が見つかる

  • 137万件以上のフリーランス案件から一括検索

    371,950の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 12月7日(Sun)更新

    37万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:196件、②ココナラテック(旧:フリエン/furien):64件、③Midworks:57件、④フリコン:57件、⑤レバテッククリエイター:37件、⑥テックリーチ:21件、⑦アットエンジニア:12件、⑧Findy Freelance:9件、⑨mijicaフリーランス:4件、⑩フリーランスポート(Freelance Port):2件となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②ココナラテック(旧:フリエン/furien)、③Midworksであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②ココナラテック(旧:フリエン/furien)、③Midworksを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①Findy Freelance:107.2万円、②フリーランスポート(Freelance Port):95万円、③Midworks:84.6万円、④アットエンジニア:84.2万円、⑤レバテックフリーランス:80.8万円、⑥フリコン:78.3万円、⑦テックリーチ:77.1万円、⑧ココナラテック(旧:フリエン/furien):75万円、⑨コンプロフリーランス:75万円、⑩Relance(リランス):70万円となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①Findy Freelance、②フリーランスポート(Freelance Port)、③Midworksであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①Findy Freelance、②フリーランスポート(Freelance Port)、③Midworksを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:521件、②大阪府:29件、③神奈川県:10件、④愛知県:8件、⑤福岡県:8件、⑥兵庫県:3件となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③神奈川県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③神奈川県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①サーバーサイドエンジニア:80件、②データサイエンティスト:70件、③バックエンドエンジニア:65件、④インフラエンジニア:49件、⑤エフェクトデザイナー:32件、⑥アプリケーションエンジニア:29件、⑦データベースエンジニア:28件、⑧SE:18件、⑨サーバーエンジニア:16件、⑩PM:16件となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人は①サーバーサイドエンジニア、②データサイエンティスト、③バックエンドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:120万円、③コンサル:114.5万円、④PL:113.1万円、⑤ITコンサルタント:106.7万円、⑥SRE:105.9万円、⑦機械学習エンジニア:101.8万円、⑧フロントエンドエンジニア:98.8万円、⑨QAエンジニア:97.5万円、⑩AIエンジニア:96.8万円となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③コンサルであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:272件、②機械:114件、③IT:99件、④広告:85件、⑤ゲーム:68件、⑥AI:67件、⑦通信:57件、⑧SaaS:43件、⑨EC:42件、⑩ソーシャルゲーム:41件となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人は①サービス、②機械、③ITが多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③ITを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:114.5万円、③Sier:100.3万円、④DX:99.9万円、⑤メディア:93.8万円、⑥AI:92.7万円、⑦化学:92.5万円、⑧金融:89万円、⑨機械:88.4万円、⑩金融系:87.5万円となっています。(※フリーランスHub調べ/2025年12月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③Sierであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③Sierを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が334件(52.7%)、常駐案件が300件(47.3%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2025年12月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は80万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は634件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。