Sparkの案件・求人一覧

1-40 / 全 616

【Node.js/TypeScript】自動車向けデータ分析プラットフォーム開発

800,000円/月

業務委託(フリーランス)
東京都
池袋駅
Node.jsSparkTypeScriptKafka
バックエンドエンジニア
作業内容 【20代~40代の方向け】 自動車の走行データを解析・提供するプラットフォームのバックエンド開発です。 Node.js(TypeScript)を使用して、データストリームの処理、分析結果のAPI化、レポート作成機能の開発を担当します。

【SRE/常駐/週5日】 メガバンク向けAMLパッケージカスタマイズ開発案件

900,000 〜 1,000,000円/月

業務委託(フリーランス)
JavaScalaSpark
SRE
作業内容 要件定義,基本設計,詳細設計,実装,テスト,運用・保守 海外ベンダーの日本進出に伴い、ベンダーの日系パートナーの位置づけで参画いただきます。 他の日系金融機関にも導入が決まっており、今後拡大が見込まれ、 当案件参画を皮切りに当ベンダーのスペシャリストを育成したいと考えております。 入場は6,7月(開始時期の前倒し応相談)を想定しておりますが、参画前に2か月程英語のオンライン研修を受講いただきます。 海外ベンダーのパッケージの導入の為ビジネスレベルの方が好ましいですが、 実作業の英語頻度はそこまで高くない為、TOEICで一定のスコアを持っている方・日常英会話レベルの方でも検討可能です。 (現場PM・メンバーは日本人となっております)

【AWS】データマネジメントシステム更改案件(リモート)

750,000円/月

業務委託(フリーランス)
東京都
AWS
インフラエンジニア
作業内容 DMシステム更改案件における構築支援業務 データマネジメントインフラ支援業務 ・DaaS環境構築支援 ・インフラ構成検討支援 ・リアルタイム/機械学習基盤設計支援 ・問合せ対応 AWSクラウド環境にHadoop,Sparkといった技術を用いデータ連携/データ収集を行い、 AIによる情報活用基盤の更改を行っていきます。

【リモート併用※初日~2週間程度は常駐】大手メーカー向けデータ利活用支援

640,000円/月

業務委託(フリーランス)
東京都
PythonSQLAWSGlue
データサイエンティスト
作業内容 ・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。

【Python/AWS】薬局ダッシュボード開発案件

950,000円/月

業務委託(フリーランス)
東京都
銀座駅
PythonSparkAWSAzureGitHubReactGoogle Cloud PlatformTypeScriptVue.js
サーバーサイドエンジニア
作業内容 ・薬局ダッシュボード開発案件に携わっていただきます。 ・主に下記作業をご担当していただきます。  -薬局ダッシュボードの画面、機能開発
【無料】案件を受け取る

BIエンジニア募集

640,000円/月

業務委託(フリーランス)
東京都
PythonSQLAWSGlue
サーバーサイドエンジニア
作業内容 ・某メーカーのDX案件における、データ利活用・可視化対応作業を行います。 ・9月よりデータ整備・データマートの概要設計等を実施し、性能要件がありその点を踏まえた検討も実施します。 ・データ収集・加工プログラム(AWS Glue でのSparkジョブ(python))の開発を行います。
  • NEW

【Go】アプリケーションの開発や運用業務(リモート)

650,000円/月

業務委託(フリーランス)
東京都
目黒駅
Go
バックエンドエンジニア
作業内容 kubernetes 上に構築したアプリケーションの開発や運用業務に携わっていただきます ・アプリケーション開発 ・データ系アプリケーションのワークフロー開発 ・運用改善

【週4-5日/フルリモート/LangChain,LangGraph】LLMエンジニア

1,600,000円/月

業務委託(フリーランス)
東京都
小伝馬町駅
Python
機械学習エンジニア
作業内容 -------------------------------- ※「エンジニアとしての実務経験3年以上」「必須要件に記載されている言語の実務経験が2年以上」の方が対象の案件です ※外国籍の方は、「日本語能力検定1級」「日本語が母国語の方」の方が対象です ※20代〜40代の経験者が望ましい案件です ※すでにFindy Freelanceで担当がついている方は、直接ご連絡いただいた方がスムーズです -------------------------------- 我々は生成AIとデータ統合を組み合わせて25兆円の意思決定市場を創出することを目指すスタートアップです。 単なるマーケティング支援にとどまらず、AIを用いた“意思決定の高度化”に挑戦しており、マーケティング・HR・キャリアなどグロースに直結する領域で複数のプロダクトを展開しています。 大規模データ基盤の設計・構築、RAG実装、API化などを通じ、革新的プロダクトの成長を牽引する体制強化を図るため、技術力と創造性に優れたエンジニアを募集します。 ▼具体的な業務内容 - LLMを用いたエージェントの構築 - RAGにおけるRetrieverの実装 - LLMOpsの整備(運用自動化含む) - CI/CDパイプラインの構築と、エージェントの継続的デプロイ - エージェントを用いたAPIの実装 ▼上記業務に慣れてきたら以下にもトライいただきたいです - データマートの設計・構築・運用 - BIツール (Tableau, Lookerなど) を用いたデータ可視化基盤の構築・運用 - Deep Learningモデルのモデリングおよびそのためのpre-processing ▼このポジションの魅力 - 大規模データ処理やクラウド環境でのデータ基盤構築、最新AI技術(LLMなど)に実践的に携る事が可能 - 生成AIやLLMを活用したエージェント開発に携わり、実際のプロダクトの進化に貢献できる - 企業の成長に直結するサービスに貢献ができる - データパイプラインやデータウェアハウスの設計・運用を通じ、企業の意思決定基盤に携わる事が可能 - Python、Node.js、Airflow、Spark、Flink、Tableauなど、多様な技術を駆使してスキルの幅が広げられる - 自由度の高い開発環境で新しい技術を試せる - エンジニアリングとプロダクトの両方の視点を養える - 迅速かつ効率的なアジャイル開発で即座にアイデアを形にできる - エンジニア同士の学び合いを大切にする環境

【Python】ビッグデータ処理分析開発

700,000 〜 900,000円/月

業務委託(フリーランス)
神奈川県
みなとみらい駅
PythonSpark
データサイエンティスト
作業内容 世界的に普及が進んでいる大規模分散処理フレームワークのApacheSpark/Python/Scala

【Python(Web開発系) / 3か月以内稼働開始希望の方優先】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業にて、データドリブンな意思決定をサポートするデータ基盤の設計・開発・運用業務を担当していただきます。データアナリストやマーケティング担当と協力し、データ基盤の整備を行います。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・PythonやSparkを用いたアプリケーション開発 ・ETLの設計および実装

【Python(Web開発系) / 3か月以内稼働開始希望の方優先】データ基盤開発業務

700,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSpark
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 某企業のデータドリブンな意思決定を支える基盤の設計・開発・運用を行います。データアナリストやマーケティング担当、アプリケーションエンジニアと協力しながら、データ基盤の整備および改善を推進します。 ■具体的な業務内容 ・データ基盤の設計、開発、運用 ・複数のデータソースを統合するシステムの開発 ・ETL開発およびデータウェアハウスの設計、運用 ・PythonもしくはSparkを用いたアプリケーション開発

【クラウドエンジニア(AWS)】【業務委託(準委任)】環境設計レビュー・改善・実装・メンテナンス

900,000円/月

東京都
渋谷駅
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ■概要 環境設計レビュー・改善・実装・メンテナンスをお任せいたします。 ■具体的な作業内容 以下の業務をお願いします。 ・既存のAWS ETL環境の調査改善 ・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度) ※対象環境はミッションクリティカルではないデータ処理基盤となります。

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWS・GCPを活用したデータ基盤整備と移行プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSデータレイクからBigQueryへのデータ移行作業や、GCPデータ基盤の整備を行うプロジェクトです。PythonやSparkを活用し、データ基盤の設計・開発を進めるとともに、効率的なデータ処理環境を構築します。TerraformやCI/CDツールを利用した開発プロセスにも携わります。 ■具体的な業務内容 ・AWSデータレイク(S3 + Glue data catalog)からBigQueryへのデータ移行 ・GCPデータ基盤の整備およびワークフローエンジンの導入 ・PythonやSparkを使用したアプリケーション開発および保守 ・TerraformやCI/CDツールを利用した開発環境の整備 ・データ基盤設計および運用改善

【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを使用した製品利用ログ分析基盤の開発・運用

650,000円/月

東京都
五反田駅
PostgreSQLAWSRedshift
作業内容 ■概要 Redshift (PostgreSQL)上のDBテーブル設計、クエリ開発をお任せいたします。 ■具体的な作業内容 ・AWS EMRを使用したETL、データ前処理(Python、Spark)

【クラウドエンジニア(AWS) / リモート案件紹介可能】AWSおよびGCPを活用したデータ基盤整備プロジェクト

800,000円/月

業務委託(フリーランス)
東京都
東京駅
AWSGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 AWSおよびGCP環境でのデータ基盤整備プロジェクトです。データレイクからBigQueryへの移行作業や、GCPのデータ基盤整備を担当します。PythonやSparkを活用し、TerraformやCI/CDツールを使用した効率的な基盤開発を進めます。 ■具体的な業務内容 ・AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業 ・GCPデータ基盤の設計および整備(ワークフローエンジン導入など) ・AWS上で動作するアプリケーションの課題発見および解決 ・Python、Hive、Sparkを使用したデータ基盤の構築
【無料】案件を受け取る

【Python】ビックデータの基盤構築

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
日暮里駅
PythonSpark
サーバーサイドエンジニア
作業内容 某大手事業会社内でのビックデータ案件になります。現在稼働しているHadoop環境の運用、保守に加え、新規機能の開発などがスタートしたため人員の増員を計画しております。データ分析は別チームが存在しますので、あくまで分析を行うための環境構築を行って頂くポジションとなりますが、現場の状況、また適正次第では分析業務にも関わっていただく可能性がございます。

【PHP】証券取引サービスにおける設計開発(BtoC)

400,000 〜 600,000円/月

業務委託(フリーランス)
東京都
大手町駅
PHPOracleMySQLPostgreSQLApacheNginx
サーバーサイドエンジニア
作業内容 証券取引サービスにおけるDB及び検索基盤の設計・開発を行います。PythonをI/Fとして、CassandraとSparkを利用したシステムの開発を行います。工程としては詳細設計〜テストまで一貫して担当頂きますがドキュメントの作成もお願いします。

【Unity / 3か月以内稼働開始希望の方優先】スマートフォン向けゲームコンテンツのエフェクトデザイン業務

650,000円/月

業務委託(フリーランス)
東京都
都庁前駅
SparkFlashUnitySpriteStudioBISHAMON
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 スマートフォン向けゲームのエフェクトデザイナーを募集しています。魔法やスキル、背景エフェクトの制作に加え、画面演出や文字演出の制作も行います。 ■具体的な作業内容 ・魔法やスキルのエフェクト制作 ・背景(環境)エフェクト制作 ・画面および文字演出の制作

【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人

600,000円/月

業務委託(フリーランス)
東京都
虎ノ門駅
PythonHadoopSparkAWSHiveGlueAthena
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ★本案件の最新の状況は、担当者までお問合せ下さい。 ★期間:随時~ 地図広告プラットフォーム開発 ※20代〜30代が中心で活気ある雰囲気です。 ※成長意欲が高く、スキルを急速に伸ばしたい方に最適 ※将来リーダーを目指す方歓迎

【AWS】データレイク構築(python)

800,000円/月

業務委託(フリーランス)
東京都
六本木一丁目駅
PythonAWSGlue
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 AWS環境でデータレイクの設計および更改対応を行います。PythonやScalaを使用した大規模バッチ処理の開発経験が求められ、ビッグデータに関わる開発意欲のある方が対象です。 ■具体的な業務内容 ・データレイクの設計および構築 ・ドキュメント作成(設計資料、説明資料) ・大規模バッチ処理の開発 ・AWSサービス(Glue、EC2、S3)を使用したデータ処理

【AWS/リモート併用】地図広告プラットフォーム開発の案件・求人

800,000円/月

業務委託(フリーランス)
リモート
PythonNode.jsSparkAWSDocker
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 新規プロダクトである地図広告P/Fのインフラ設計、開発、テストを推進していただきます。 AWS上でのデータ処理やクエリーワークロードの設計、デプロイ、 監視のためのMapboxのプロセスとツールの簡素化と強化が主要業務となります。 開発、営業、その他チームとの連携も重要となります。 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】

【AWS】システム開発案件

600,000 〜 800,000円/月

業務委託(フリーランス)
東京都
品川駅
JavaPythonSQLCSSHTMLWindowsLinuxMySQLDjangoSparkFlaskAWSGitHub
データサイエンティスト
作業内容 開発、運用を繰り返すイメージです。 AWS上でのデータ解析基盤の構築 画面側はPython,html,cssなどを使います。 利用するAWSサービスの候補 - Redshift,EMR(spark),Athena,RDS,EC2,VPC,CloudFormation,Lambda,StepFunction 開発工程 基本設計, 詳細設計, 実装, 単体テスト, 結合テスト, システムテスト

【Python / リモート案件ご紹介可能】AWSデータ解析基盤開発(大手メーカー内バックオフィス業務)

700,000円/月

業務委託(フリーランス)
東京都
品川シーサイド駅
JavaPythonSQLCSSHTMLSparkAWS
作業内容 ★エンジニア実務経験2年以上 / 直近で実務経験のある方が対象の案件です!!★ ■概要 大手メーカーのバックオフィス業務を支えるデータ解析基盤の開発を担当します。AWSを活用し、RedshiftやEMR(Spark)、Athenaなどのデータ処理技術を用いたシステムを構築します。Pythonを中心としたデータ処理・分析のスキルが求められます。 ■具体的な業務内容 ・AWS環境上でのデータ解析基盤の設計・開発 ・Pythonを用いたデータ処理スクリプトの作成 ・SQLを用いたデータ抽出・集計処理の実装 ・AWS Lambda、Step Functionsを活用したワークフロー構築 ・Tableauを用いたデータ可視化(可能であれば対応)

【Python】Pythonによる開発経験者募集(分析基盤システム開発支援)(20代〜40代活躍中!・週4日以上稼働可能な方にぴったり!)

500,000円/月

業務委託(フリーランス)
東京都
竹芝駅
PythonSQLSpark
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 小売業向けの分析基盤システムの開発を担当します。要件定義から導入までの一連のシステム開発を進め、PythonやSQLを用いたデータ分析および基盤構築に携わります。 ■具体的な業務内容 ・PythonおよびSQLを用いたデータ分析および基盤構築 ・要件定義から導入までのシステム開発プロセスの遂行 ・AzureおよびDatabricksの活用に関する調査および提案 ・統計手法を用いたデータ分析および改善提案 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

【Java(Spring Boot)】【業務委託(準委任)】道路交通系開発案件【リモートOK】

700,000円/月

大阪府
新大阪駅
JavaSQLSpring
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 道路交通系開発をお任せいたします。 Hadoop上で動作する道路交通系システムの開発をご担当いただきます。 ■作業工程:詳細設計~結合テスト

【その他】予兆監視システム改修

700,000 〜 900,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
Linux
PMPMO
作業内容 プロダクトベースに開発した予兆監視システムの機能拡張・改修プロジェクトの開発

【AWS / リモート案件ご紹介可能】大手自動車メーカー向けAWS基盤設計・構築

700,000円/月

業務委託(フリーランス)
東京都
大手町駅
LinuxAWS
作業内容 ★エンジニア実務経験2年以上 / ブランクのない方が対象の案件です!!★ ■概要 大手自動車会社のIoT基盤を支えるAWS上のサーバ基盤運用における設計・構築業務を担当するプロジェクトです。オンプレミスからクラウドに移行したシステムにおいて、AWSの各種マネージドサービスやHadoopエコシステムを活用し、安定した基盤運用を目指します。長期的な支援が見込まれるため、スキルを深める環境が整っています。 ■具体的な業務内容 ・AWS環境でのサーバ設計・構築業務 ・運用設計の策定および運用支援 ・Hadoopエコシステム(Apache Spark、Kafkaなど)を用いたデータ基盤構築 ・AWSマネージドサービスの活用および最適化

【クラウドエンジニア(その他クラウド)】【業務委託(準委任)】在庫管理等の分散処理システム構築案件

1,500,000円/月

東京都
東京駅
HadoopApache
作業内容 ■概要 在庫管理等の分散処理システムをHadoop on Sparkで組んでおりDMCから逆輸入による導入を実施。 ■具体的な作業内容 ・リーダー:1名(Hadoop有識者、テックリード) ・SIer内Hadoopスペシャリストに相談可能。 ・オフショアメンバー(中国)側と連携して進める。

【その他】データ解析・データ解析のプログラミング~DBアクセスプログラミング【リモートOK】

650,000円/月

東京都
品川駅
PythonAWSGoogle Cloud Platform
作業内容 ■概要 大手製造メーカー様案件で、データ解析・データ解析のプログラミング~DBアクセスプログラミングを担当していただきます。 ※参画いただいた後は、相談の上プロジェクトの中でその他の役割も担って頂く可能性もございます。

【クラウドエンジニア(AWS)】【業務委託(準委任)】バックエンドエンジニア・データエンジニア

1,300,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonWindowsLinuxUnixSparkAWSDockerApacheGoogle Cloud PlatformBigQueryGitlab
バックエンドエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 世界最大級の傑出した無形資産データ統合基盤から的確な未来予測や社会課題解決を支援していただきます。 ■具体的な作業内容 ・世界各国の特許や論文、国家研究予算データなどオープンデータの収集、分析を行うためのデータ基盤、API、バッチシステムの構築、運用 ・上記、Google Cloud Platformを用いたETLパイプラインの構築、運用ならびに既存システムのリファクタリング ・データカタログや監査などのデータガバナンスのためのアーキテクチャ選定や構築

【クラウドエンジニア(AWS)】【業務委託(準委任)】自社サービス開発

650,000円/月

東京都
田町駅
AWS
作業内容 ■概要 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark、HBase、Hive、Presto、Hudiといった分散DBの知見のある方を募集いたします。 ■具体的な作業内容 ・データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。

【Python(Web開発系)】【業務委託(準委任)】自社サービスSaaSのバックエンド(データ基盤)

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSparkAWS
バックエンドエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】 ■概要 Pythonによるデータ基盤構築をお任せします。 ■詳細 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 自社サービスSaaSの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。

【Python / リモート案件紹介可能】大規模データ活用基盤改善/データ分析基盤エンジニア

900,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLShellLinuxAWSDockerGitSVNGoogle Cloud Platform
作業内容 ※エンジニアとしての実務経験が2年以上ある方が対象の案件です!! ■概要 大手人材派遣会社における派遣領域のデータ活用基盤を対象とした改善・保守運用を担当します。レコメンドエンジンを提供するデータ基盤や分析環境の改善に加え、クラウドサービスやミドルウェアの新規技術検証、簡易的な機械学習モデルのチューニングなども手掛けます。大規模データ処理やPython、Linux環境での開発経験を活かし、データ基盤の構築に貢献できるポジションです。 ■具体的な業務内容 ・レコメンドエンジンを提供するデータ基盤・分析環境の改善および保守運用 ・クラウドサービスやミドルウェアの新規技術検証 ・簡易的な機械学習モデルのチューニングやデータ分析 ・大規模データ処理基盤に関する運用業務(Hadoop, Spark, Treasure Data) ・インフラ関連ツール(Docker、CI/CD)の業務運用および保守

【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人

700,000円/月

業務委託(フリーランス)
フルリモート
PythonSQLSparkAWSDocker
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。 顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。 【開発環境】 ・開発言語:Python、SQL ・DB:Aurora(PostgreSQL互換)、Redshift ・ライブラリ・フレームワーク:Pandas、Numpy、Dask ・インフラ:AWS ・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch ・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry

【Python】新データベース構築支援

530,000円/月

業務委託(フリーランス)
東京都
飯田橋駅
PythonSQL
データベースエンジニア
作業内容 【20代~40代の方向け】 現行のものからデータベースを移行するにあたり、新しいデータベースの構築業務に携わって頂きます。 データのETL処理にdatabricksを使用するため、databricks及びPythonでの業務をご担当いただく予定です。 

【Ruby on Rails】飲食店 店舗向けビッグデータ分析システム改修支援

800,000 〜 1,000,000円/月

業務委託(フリーランス)
東京都
新橋駅
RubySQLLinuxRails
サーバーサイドエンジニア
作業内容 既存サイトにおけるビッグデータ(店舗メニュー情報)分析システムのバッチ処理に関する処理の大幅改修作業

【DBエンジニア(SQL全般)】自社マーケティングオートメーション事業のログ集計

650,000円/月

業務委託(フリーランス)
東京都
東京駅
SQLLinuxSparkAWSApacheGit
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 自社マーケティングオートメーション事業において、ログ集計業務を担当していただきます。クリック履歴の集計や名寄せなど、マーケティングデータの効率的な処理と分析を行います。 ■具体的な業務内容 ・メール内リンクのクリック集計業務 ・クリック履歴とWebサイト訪問履歴の名寄せ ・Go, Python3, Scala, Javaを使用した開発 ・AWSおよびデータベースの管理 ・ログ集計システムの改善および最適化 ・RabbitMQやnginxなどのツールを使用したインフラ管理 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

【AWS/リモート併用】転職支援サービス開発の案件・求人

750,000円/月

業務委託(フリーランス)
東京都
原宿駅
PythonNode.jsSparkAWSAzureDockerApacheGoogle Cloud PlatformCDKDevOps
作業内容 ===== ※重要※ ▼必ずお読みください▼ 【必須要件】 ・20~40代までの方、活躍中! ・社会人経験必須 ・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須 ・週5日稼働必須 ・エンジニア実務経験3年以上必須 ===== ・インフラエンジニアとして、インフラの設計・開発・テストから運用・保守まで、全体をエンド・ツー・エンドで担当・リード ・AWSやGCP上でのデータ処理やクエリーワークロードの設計、デプロイ、監視プロセス・ツールの簡素化と強化 ・マーケティング・UXデザイン・業務企画・事業開発・カスタマーサービス・営業等と連携し、クロスファンクショナルなチームでの業務推進 【日本語ネイティブの方、活躍中!】 【20代・30代・40代、活躍中!】 【出社可能な方、活躍中!】

【DBエンジニア(SQL全般)】バックエンドエンジニア(20代〜40代活躍中!・週4日以上稼働可能な方にぴったり!)

800,000円/月

業務委託(フリーランス)
大阪府
大阪駅
JavaJavaScriptSQLScalaPostgreSQLSparkAWSSpringBootGlueAurora
バックエンドエンジニア
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 SaaSサービスのバックエンドエンジニアとして、各サイトからデータを取得し、レポートを出力するためのデータ収集とマイニングを行います。ETLやAPIの作成、AWS GlueやScalaを使用したデータ処理も担当します。 ■具体的な業務内容 ・SaaSサービスにおけるデータ収集およびマイニング ・ETLプロセスの設計および実装 ・ScalaおよびAWS Glueを使用したデータ処理 ・APIの設計および開発 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

【Python(Web開発系)】某社サービスのバックエンド(データ基盤)

1,000,000円/月

業務委託(フリーランス)
東京都
東京駅
PythonSQLSparkAWS
バックエンドエンジニア
作業内容 【20 代から40 代の方が活躍中!】 ※週4日〜OK案件です! ※実務経験2年以上ありの方が対象の案件です! ■概要 Pythonを用いて、某社サービスの在庫最適化システムを支えるデータ基盤の構築を担当します。大量データの集計や加工を行い、データストアへの投入を行います。 ■具体的な業務内容 ・在庫最適化システムのデータ基盤構築 ・数億レコードの大量データの集計および加工 ・SQLやPythonを用いたデータ処理およびデータストアへの投入 ・スクラムチームでの開発およびスプリントの推進 勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。 ------------------------------------------------------------------ 直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。 弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。 ------------------------------------------------------------------ ※弊社では、法人、請負いの案件は取り扱っておりません。

気になる案件は見つかりましたか?

お探しの条件に合った新着案件をお知らせします

あなたにピッタリ
フリーランス案件が見つかる

  • 135万件以上のフリーランス案件から一括検索

    358,746の案件を保有しており、エンジニアやクリエイター向けを中心にたくさんの案件を一括検索可能です。

    ※ 9月26日(Fri)更新

    35万件以上のフリーランス案件から一括検索

  • 2あなたの経験やスキルに適した案件をメールでお知らせ

    マイページに入力して頂いた経験や希望条件に合わせて、ご希望にマッチした案件をメールでお送りするので効率的な案件探しが可能です。

    あなたのプロフィールからおすすめの案件・求人

今すぐ無料登録

Sparkの月額単価相場

Sparkのエージェント別案件数

Sparkのフリーランス案件・求人を保有しているフリーランスエージェントは、①レバテックフリーランス:193件、②ココナラテック(旧:フリエン/furien):63件、③Midworks:56件、④フリコン:48件、⑤レバテッククリエイター:36件、⑥テックリーチ:18件、⑦アットエンジニア:12件、⑧Findy Freelance:9件、⑨mijicaフリーランス:4件、⑩エンジニアルーム:4件となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人を豊富に保有しているフリーランスエージェントは①レバテックフリーランス、②ココナラテック(旧:フリエン/furien)、③Midworksであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①レバテックフリーランス、②ココナラテック(旧:フリエン/furien)、③Midworksを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkのエージェント別月額単価相場

Sparkのフリーランス案件・求人を保有しているフリーランスエージェント別の単価相場は、①Findy Freelance:107.2万円、②フリーランスポート(Freelance Port):95万円、③Midworks:84.6万円、④アットエンジニア:84.2万円、⑤レバテックフリーランス:80.9万円、⑥1 on 1 Freelance:80万円、⑦フリコン:78.5万円、⑧テックリーチ:75万円、⑨ココナラテック(旧:フリエン/furien):75万円、⑩mijicaフリーランス:68.8万円となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人の月額単価が高いフリーランスエージェントは①Findy Freelance、②フリーランスポート(Freelance Port)、③Midworksであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①Findy Freelance、②フリーランスポート(Freelance Port)、③Midworksを中心に複数のフリーランスエージェントに登録することをおすすめします。

Sparkの都道府県別案件数

Sparkのフリーランス案件・求人の都道府県別案件数は、①東京都:510件、②大阪府:29件、③神奈川県:9件、④福岡県:8件、⑤愛知県:6件、⑥兵庫県:3件となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人が集中している都道府県は①東京都、②大阪府、③神奈川県であることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①東京都、②大阪府、③神奈川県を中心にフリーランス案件を探されることをおすすめします。

Sparkの職種別案件数

Sparkのフリーランス案件・求人の職種別案件数は、①サーバーサイドエンジニア:80件、②データサイエンティスト:67件、③バックエンドエンジニア:61件、④インフラエンジニア:45件、⑤エフェクトデザイナー:32件、⑥アプリケーションエンジニア:29件、⑦データベースエンジニア:27件、⑧SE:17件、⑨PM:16件、⑩サーバーエンジニア:15件となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人は①サーバーサイドエンジニア、②データサイエンティスト、③バックエンドエンジニアが多いことが分かります。

Sparkの職種別平均単価

Sparkのフリーランス案件・求人の職種別の平均単価は、①Webディレクター:162.5万円、②PMO:120万円、③コンサル:114.5万円、④PL:113.1万円、⑤ITコンサルタント:106.7万円、⑥機械学習エンジニア:106.3万円、⑦SRE:105.9万円、⑧フロントエンドエンジニア:98.8万円、⑨QAエンジニア:97.5万円、⑩AIエンジニア:96.4万円となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人の月額単価が高い職種は①Webディレクター、②PMO、③コンサルであることがわかります。

Sparkの業界別案件数

Sparkのフリーランス案件・求人の業界別案件数は、①サービス:269件、②機械:110件、③IT:99件、④広告:85件、⑤ゲーム:67件、⑥AI:65件、⑦通信:57件、⑧EC:42件、⑨SaaS:42件、⑩ソーシャルゲーム:40件となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人は①サービス、②機械、③ITが多いことが分かります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①サービス、②機械、③ITを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの業界別平均単価

Sparkのフリーランス案件・求人の業界別の平均単価は、①保険:150万円、②コンサル:114.5万円、③Sier:100.3万円、④DX:99.9万円、⑤メディア:93.8万円、⑥化学:92.5万円、⑦AI:92.4万円、⑧官公庁:90万円、⑨金融:89万円、⑩機械:88.1万円となっています。(※フリーランスHub調べ/2025年9月) Sparkのフリーランス案件・求人の月額単価が高い業界は①保険、②コンサル、③Sierであることがわかります。 Sparkのフリーランス案件・求人に参画を希望するフリーランスの方は①保険、②コンサル、③Sierを中心に複数の業界の案件を検討されることをおすすめします。

Sparkの常駐案件・リモートワーク案件割合

Sparkのフリーランス案件・求人数のリモートワーク案件・常駐案件の割合を分析するとリモートワーク案件が322件(52.3%)、常駐案件が294件(47.7%)となっています。 したがって、Sparkフリーランス案件・求人に関してはリモートワーク案件が多いことがわかります。 (※フリーランスHub調べ/2025年9月)

Spark案件のよくある質問

Sparkの月額単価の相場はどれくらいですか?

Sparkの月額単価の相場は80万円です。スキルやご経験により、

単価が変わります。自分のスキルや経験に合った案件は、こちらの案件一覧ページから検索・応募できます。

Sparkの案件数は何件ですか?

フリーランスHub上でご覧いただけるSparkの案件数は616件です。 尚、応募先エージェントで非公開案件の提案を受けられる場合もあります。

未経験でもSparkのフリーランス案件に応募することは可能ですか?

はい。応募先エージェントが条件を設けていない限り、基本的には未経験でも応募することが可能です。 ただし、中には実務経験を重視する案件もありますので、未経験で参画できる案件があるかどうかは応募先エージェントに確認してみましょう。

Sparkについて

【Sparkの概要】 Spark(Apache Spark)は、大規模データを処理するためのフレームワークです。Sparkの開発はカリフォルニア大学バークレー校で2009年に始まり、現在は非営利団体であるApacheソフトウェア財団が管理しています。Sparkの特徴は、大規模データを高速で処理できること。データをHDDやSSDでなくメモリに格納することで、高速性が実現されました。 Sparkを用いる案件は、データエンジニアやデータサイエンティストといった職種を対象としたものが主です。データ処理ジョブの記述と構築をはじめ、データ分析や機械学習など、フリーランス案件で行うことが想定される幅広い作業にSparkを活用することができます。 【Spark関連案件に必要なスキル】 フリーランス向けのSpark関連案件では、Hadoopを扱うスキルが必要になると考えられます。SparkとHadoopは並列的に活用されており、リアルタイムかつ高速処理を要するデータはSpark、サイズが大きいデータの分散処理はHadoopというように使い分けられる傾向にあるためです。Spark、Hadoop双方のメリットとデメリットを把握したうえでそれぞれの扱いに長けていれば、フリーランス案件参画時にデータ処理作業がスムーズになるでしょう。 ※この文章は、2021年4月時点の内容です。