Scalaエンジニア 機械学習モデルの実装とデータ分析基盤の開発
作業内容 ・データ処理と前処理の実装
・Scalaを使用して機械学習アルゴリズムやモデルの実装
・大規模データセットを使用する場合、分散処理フレームワーク(例: Apache Spark)を使用して機械学習アルゴリズムをスケーラブルに実行
・モデル評価とパフォーマンス改善
・データ分析基盤の開発
・データの可視化とレポーティング
【Python】オンライン会議サービス開発案件
業務委託(フリーランス)
JavaScriptPythonCSSHTMLLinuxMacOSAWSAzureGoogle Cloud Platform
作業内容 ・オンライン会議サービスの開発PJにて、
設計から実装、テストまで幅広い作業をご担当いただきます。
【Python】広告システム/機械学習/データマイニング案件
業務委託(フリーランス)
JavaScriptPythonRubyHTML5LinuxPostgreSQLHadoopRailsSparkAWSDockerApacheCSS3GitHubReactHive
作業内容 ・月間で数億リクエストある広告システムで、
ログ、各種デモグラフィック情報、アクション情報などをもとに、
データマイニングおよび機械学習に携わって頂きます。
・設計から幅広く担当して頂きます。
※担当範囲は、スキルや経験および進捗状況により変動いたします。
【Python/Scala/Java】ビッグデータ向け基盤構築案件
業務委託(フリーランス)
JavaPythonSQLScalaNode.jsHadoopSparkAWSHive
作業内容 ・各社が保有するデータのヒアリングと整理、および解決すべき問題の要件化から、
様々なプラットフォームの構築、運用までをご担当いただきます。
・様々な保持データを掛け合わせた設計・抽出・転送のフロー構築や、
スケーリングやコストを意識したクラウド環境の構築にも携わっていただきます。
【Python】クラウド環境上でデータ関連開発経験のある方向け!(一部リモート)データエンジニア【直接取引】
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【データマイニング/Python】広告配信プロダクトプラットフォーム開発案件
業務委託(フリーランス)
C++PythonSQLSparkGitHubBigQueryHive
データサイエンティストデータベースエンジニア
作業内容 ・自社広告配信プロダクトの100億レコード以上/日のログを分析し
広告配信の最適化する業務に携わっていただきます。
・KPI(CPCなど)最適化の改善及び運用をご担当いただきます。
【AWS/リモート併用】転職支援サービス開発の案件・求人
業務委託(フリーランス)
PythonNode.jsSparkAWSAzureDockerApacheGoogle Cloud PlatformCDKDevOps
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
・インフラエンジニアとして、インフラの設計・開発・テストから運用・保守まで、全体をエンド・ツー・エンドで担当・リード
・AWSやGCP上でのデータ処理やクエリーワークロードの設計、デプロイ、監視プロセス・ツールの簡素化と強化
・マーケティング・UXデザイン・業務企画・事業開発・カスタマーサービス・営業等と連携し、クロスファンクショナルなチームでの業務推進
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【機械学習/データマイニング】大手企業PoC/データ分析案件
業務委託(フリーランス)
PythonSparkRedshiftBigQueryTreasure Data
データサイエンティスト
作業内容 ・大手企業にて、
機械学習/データマイニングを用いたデータ分析に携わって頂きます。
・グループ内の数百ある各事業会社の要件を実現していくため、
AIやIoTの技術なども使いながら、少人数でPoCを回して頂きます。
・データ分析だけでなく、サービスの改善提案まで担当して頂きます。
・ご経験がある方は、アーキテクチャ設計や技術選定、
およびデータ分析基盤の構築なども併せて依頼されることがございます。
※担当範囲は、スキルや経験および進捗状況により変動いたします。
【Node.js/AWS/リモート併用可】鉄道会社向けアプリ保守開発
業務委託(フリーランス)
JavaScriptNode.jsAWS
サーバーサイドエンジニア
作業内容 鉄道会社向けアプリ保守開発案件となります。
アプリの改修、小規模開発、運用保守等をご担当いただきます。
【PM/フルリモート】通信企業向けポイントシステム開発案件
業務委託(フリーランス)
AWS
サーバーエンジニアPM
作業内容 ・大手通信企業向けポイントシステムの一部機能の開発にて プロジェクトマネジメント業務および要件定義に携わっていただきます。
・AWS上でSpark on EMR環境を構築、クライアントアプリから使えるようAWSのFargate上で動かすことを想定しています。
Python データ分析及びバックエンド開発業務(リモート)
業務委託(フリーランス)
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
SQL ヘルスケア スマホアプリ開発SE
業務委託(フリーランス)
SQLAWSLambda
SE
作業内容 ヘルスケア企業向けにリリースしたスマホアプリにおいて、バージョンアップにおける開発対応を行っていただきます。
基盤はAWS、開発手法はアジャイルとなります。(一部、AWSにおける運用保守を行っていただく可能性もございます)
<備考>
リモート頻度は週1~2回
<基本時間>
9:00~18:00
【DBエンジニア】PythonでのDBアクセスプログラミング
業務委託(フリーランス)
PythonAWSGoogle Cloud PlatformRedshiftBigQuery
作業内容 大手製造メーカー様案件で、データ解析・データ解析のプログラミング
~DBアクセスプログラミングを担当していただきます。
※参画いただいた後は、相談の上プロジェクトの中でその他の役割も
担って頂く可能性もございます。
【AWS/DWH】金融系インフラ構築案件
業務委託(フリーランス)
SparkAWSDockerGitJenkinsChef
インフラエンジニア
作業内容 ・クラウドネイティブの安定したアプリケーションの運用、開発を担当していただきます。
・機械学習案件の基盤整備をデータエンジニアと共に進め、データ分析基盤の構築・運用を担当していただきます。
・下記を行っていただきます。
‐ミドルウェアバージョンアップ対応
-アプリケーション改修対応
-ミドル/バックエンドのパフォーマンスチューニング
-運用・開発改善を目的とした新規システムのアーキテクチャ設計及び構築支援
-デプロイ、テスト環境、CI環境、開発環境改善
-エンジニアへの技術的な支援
-Ansible等を用いたミドルの構成管理
-データサイエンティスト/エンジニアと連携して、より早くデプロイするための環境構築
-データを統合的に扱えるよう、データエンジニアと連携した、DL/DWH/DMの設計、拡張、運用
-各データソースとDWH間を効率的に連携させるためのデータ連携の設計・開発
-構築した各種モデルのモニタリング
【Python/リモート併用】AI×SaaSプロダクトのバックエンドの開発の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
バックエンドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをリリースし、
エンタープライズとの契約が急激に増えている中で、
多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、
集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【SRE】アドプラットフォーム向けSRE案件
業務委託(フリーランス)
ScalaLinuxNode.jsHadoopSparkAWSHive
SRE
作業内容 ・SREをご担当いただきます。
・主に下記作業となります。
-サーバー構成管理ツールの開発や運用
-モニタリング環境構築、監視ツールの開発
-Kuberbetes環境でのコンテナクラスタ運用
-Hadoop、Kafkaを利用した分析や集計基盤の構築
-HiveやSparkを用いた集計処理バッチの作成
-ミドルウェアの検証および選定
-LinuxOSのチューニング
-海外展開に向けたクラウドインフラ等の構築
New【Python/SQL】データ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。【募集背景】新バージョンの機能追加が急務であり、エンジニアリソースが不足しているため。【開発環境】・開発言語: Python、SQL・DB: Aurora(PostgreSQL互換)、Redshift・検索エンジン: Amazon Elasticsearch Service・ライブラリ・フレームワーク:Pandas、Numpy、Dask・インフラ: Amazon Web Services・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
★本案件の最新の状況は、担当者までお問合せ下さい。
★期間:随時~
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
※20代〜30代が中心で活気ある雰囲気です。
※成長意欲が高く、スキルを急速に伸ばしたい方に最適
※将来リーダーを目指す方歓迎
【Python/TypeScript】AI/データ分析アプリ開発案件
業務委託(フリーランス)
PythonTypeScript
作業内容 ・大手企業のグループ内にある各事業会社の要件を実現していくため、
アプリ開発に携わって頂きます。
・HadoopやSparkなどの技術を使いながらPoCを回して頂きます。
・モックやプロトタイプの開発から実運営での検証など、PDCAを回し、
投資判断でGoが出たものは、システム開発を行う流れで進めます。
・ご経験がある方は、
アーキテクチャ設計や技術選定などを併せて依頼されることがございます。
※担当範囲は、スキルや経験および進捗状況により変動いたします。
【Python,SQL/分析基盤エンジニア】法人営業企業系 データ分析及び、システムデータ分析基盤構築支援 (分析エンジニア/分析基盤エンジニア)
業務委託(フリーランス)
PythonSQLUnixSparkAWSDockerApacheHive
作業内容 [ポジション]:分析基盤エンジニア
◇データ分析対応チーム、もしくはデータ分析基盤構築チームにて、 A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など) B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など) のいずれかをご対応いただく予定です。・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。 [稼働先最寄り]・基本リモート or 現場常駐(出社時は東京都 港区エリア) ※現状、タスクに応じて50/50で対応中 ※ご面談設定の際に、詳細情報を連携させていたます。
[募集人数]
・メンバー枠:
データ分析エンジニア : ~1名
データ分析基盤構築エンジニア: ~最大3名
【Scala】広告配信システムサーバサイド開発案件
業務委託(フリーランス)
ScalaMySQLRedisMongoDBAWSApacheGitSubversion
作業内容 ・WebAPIサーバまたは広告配信サーバ等の開発をご担当いただきます。
【Python/機械学習】Databricksを用いたデータ基盤構築・活用
業務委託(フリーランス)
PythonSQL
データサイエンティスト
作業内容 上位受託でお客様向けにデータ基盤の構築をご支援しており、追加のご依頼・ご相談などをいただいている状況です。
PoCとして様々なテーマを扱う予定で、画像解析、自然言語処理、時系列解析などのテーマもスコープに入る想定で、
主にDatabricksを用いたデータ基盤構築・活用に向けた推進などをお任せする予定です。
【Unity/Unreal Engine】ゲームのエフェクトデザイン業務
業務委託(フリーランス)
UnityUnreal Engine
作業内容 ゲームの開発/運営を行っている現場で、
主にエフェクトデザイン業務をお願い致します。
中でもパーティクルエフェクトに関する作業を中心にお願い致します。
【Python/AWS】データ連携アプリ開発案件※フルリモート
業務委託(フリーランス)
PythonAWSFargate
サーバーサイドエンジニア
作業内容 開発中のシステムに対する追加機能の設計実装となります。
・工程:アプリケーション設計~総合テスト
【SE/Java】ガス会社様向けシステム開発
業務委託(フリーランス)
JavaSpring
サーバーサイドエンジニアSE
作業内容 ガス会社様向けシステムにおける技術的な調査と基本設計~開発(構築)~テストをしていただきます。
【Go/フルリモート】データ分析基盤開発支援案件
業務委託(フリーランス)
PythonSQLGoC#ScalaLinuxMySQLPostgreSQLRedisCassandraSparkAzureGitJIRA
作業内容 ・データ分析基盤及びETL基盤のシステム開発支援に携わっていただきます。
・下記作業をおまかせいたします。
-システムアーキテクチャの検討・選定・設計・実装
-分散処理基盤の開発
Dynamic365/インタフェース(IF)開発支援
作業内容 ・IF各種設計書作成
・MS Fabric環境での実装(検証及びテストも含む)
・その他上記に付随する業務
【エフェクトデザイナー】モバイルゲーム(RPG)エフェクトデザイナー業務案件
業務委託(フリーランス)
SparkUnityAfter EffectsRPG
エフェクトデザイナー
作業内容 モバイルゲーム(RPG)のエフェクトデザイナー業務に携わっていただきます。
以下の業務内容をお任せいたします。
-キャラクターの攻撃や回復、松明の炎や煙、UIなどのエフェクト制作
-ユーザー体験を最大化させる演出の提案、コンテ制作
【Python】某不動産サイト/アプリにおけるデータ分析基盤の構築運用案件
業務委託(フリーランス)
PythonLinuxMySQLAWSGitGoogle Cloud PlatformBigQueryTableau
アプリケーションエンジニア
作業内容 ・某大手不動産サイト/アプリにおけるデータ分析環境の構築や運用、
および関連するエンジニアリング業務に携わって頂きます。
・設計から幅広く担当して頂きます。
・主な業務は下記の通りです。
-データマートの設計や作成
-データ利用者への要件ヒアリング
-データ収集バッチの運用開発
-BIツールの設定
-既存システムやデータの調査
※担当範囲は、スキルや経験および進捗状況により変動いたします。
【Pythonなど】小売/卸売業向けAI系サービス/データ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 某ベンチャー企業にて、在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、 エンタープライズとの契約が急激に増えている中で、 非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、 開発メンバー全員でスプリントを消化していく体制になります。
業務内容
顧客の持つ様々なビッグデータをクラウド環境で統合し、その分析/活用が出来る基盤の構築/運用します。
・新規データ取得のETL及びデータウェアハウスの実装
・データ基盤の運用及び保守開発
・データの可視化
・定例MTG対応
・仕様書等ドキュメント作成(一部)
技術環境
O S :Linux, Windows
言 語 :Python, SQL
D B :Redshift, Aurora(PostgreSQL互換)
Cloud :AWS(ECS, S3, StepFunctions, Lambda, Redshift, Aurora等)
DWH :BigQuery, TreasureData等
機械学習系:Kedro, MLflow
C I :CircleCI
監視系 :Sentry
その他 : GitHub, Slack, CircleCI