NEW【Python】WebサービスAI開発案件
業務委託(フリーランス)
PythonSQLPyTorchTensorFlowSAP
サーバーサイドエンジニア
作業内容 ・WebサービスAI開発案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-データ分析(データの前処理、クレンジング、変換)
-モデリング
-SQLを用いたデータベース操作
-PythonによるAPI開発 など
★元請直/リモート/AWS/EMR:データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
NEWPython/SQL 開発・保守および運用に関する支援業務(基本リモート)
作業内容 ・データ加工のバッチ開発/運用(データ設計、ETL処理の開発)
・カテゴリ付与などのデータ加工の検討/実装など
【Python/SQL】ビッグデータ利活用のため加工修正業務の求人・案件
業務委託(フリーランス)
PythonSQLLinuxAWSSnowflake
作業内容 クライアントが保有するビッグデータの利活用を進めていくにあたりAWSでのデータの加工、修正をお願いいたします。
【DX・データ利活用コンサル】エンタープライズデータアーキテクト支援の求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaHadoopSparkAWSAzureTableau
コンサル
作業内容 ・データエンジニアと緊密に連携して、バッチおよびリアルタイムデータ処理用のデータパイプラインの構築と最適化
・ データサイエンティストやアナリストと協力して、データへのアクセスを容易にし、
高度な分析や機械学習プロジェクトをサポートします。
【概要】
・さまざまなサービスと実装パターンを活用し、安全でスケーラブルかつコスト効率に優れたエンタープライズアーキテクチャを設計から実装を目指します。
具体的には、さまざまなデータワークロードと分析ニーズをサポートするために、
データの取り込み、保存、処理、消費のためのソリューション設計になります。
【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件
業務委託(フリーランス)
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細> ・分析基盤整備 └ダッシュボードの作成(KPIツリー、目的別ボード) └ユーザー行動の可視化(推移、利用特性) └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析 └データを用いた仮説検証(機能、UI改善、施策) └ユーザー行動(数値化、可視化、セグメント分類) └効果検証(広告、キャンペーン、メールマガジン等) └得られたデータを元にしたインサイトの提供
<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase
【Python/BI/リモート】エンタメサービスのユーザー行動分析
業務委託(フリーランス)
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析
■内 容:
・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細>
・分析基盤整備
└ダッシュボードの作成(KPIツリー、目的別ボード)
└ユーザー行動の可視化(推移、利用特性)
└分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
└データを用いた仮説検証(機能、UI改善、施策)
└ユーザー行動(数値化、可視化、セグメント分類)
└効果検証(広告、キャンペーン、メールマガジン等)
└得られたデータを元にしたインサイトの提供
Python データアナリスト募集
PythonSQLJIRAGitHubBigQueryTableauGoogle AnalyticsCircleCI
データアナリスト
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
【役割】
事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること
■ 分析基盤整備
・ダッシュボードの作成(KPIツリー、目的別ボード)
・ユーザー行動の可視化(推移、利用特性)
・分析基盤整備の推進(データ取得の推進、課題点洗い出し)
■ 分析
・データを用いた仮説検証(機能、UI改善、施策)
・ユーザー行動(数値化、可視化、セグメント分類)
・効果検証(広告、キャンペーン、メールマガジン等)
・得られたデータを元にしたインサイトの提供
【働く環境】
・海外や多地点との協働
・メインが日本語で、英語は読み書きが頻出 ※スキルに応じ英会話等も利用の可能性あり
【使用ツール】
開発言語
・Go
インフラ環境
・Google Cloud
・Cloud Spanner
・Cloud Function
・Cloud Run
・BigQuery
ソースコード管理:GitHub
CI/CD: CircleCI, Cloud Build
監視・モニタリング: Google Cloud Logging, Google Cloud Monitoring
インシデント管理: PagerDuty
コミュニケーション: Slack, Google Meet
プロジェクト管理、ドキュメント: JIRA/Confluence/DocBase
【Azure】クラウドエンジニアの求人・案件
業務委託(フリーランス)
HadoopAzure
インフラエンジニア
作業内容 在庫管理等の分散処理システムをHadoop on Sparkで組んでおりDMCから逆輸入による導入
New【Java】アプリケーションの新基板への移行/コンテナ化の求人・案件
業務委託(フリーランス)
JavaPythonWindowsLinuxHadoop
作業内容 大規模データ収集基板構築(オンプレにて構築)に伴い、アプリケーションの新基板への移行/アプリケーションのコンテナ化を支援いただける方を募集します。アプリケーションの設計、開発、テストがメイン業務となります。アプリ設計、データ投入、環境利用等で分散FS(Hadoop)の構成について考慮する必要があるため、Hadoop環境の利用経験がある方を優遇させていただきます。RDBからデータ取得を行うアプリケーションをDWH(Hadoopベース)からデータ取得を行うように改修、改修のための設計、開発、テスト
新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)
【Java】アプリケーション開発エンジニアの求人・案件
業務委託(フリーランス)
JavaPythonWindowsLinuxHadoop
作業内容 大規模データ収集基板構築(オンプレにて構築)に伴い、アプリケーションの新基板への移行/アプリケーションのコンテナ化を支援いただける方を募集します。
アプリケーションの設計、開発、テストがメイン業務となります。
アプリ設計、データ投入、環境利用等で分散FS(Hadoop)の構成について考慮する必要があるため、Hadoop環境の利用経験がある方を優遇させていただきます。
RDBからデータ取得を行うアプリケーションをDWH(Hadoopベース)からデータ取得を行うように改修、改修のための設計、開発、テスト新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)【開発環境】
・Java
・Hadoop(Cloudera)
・Apache kafka
・Apache spark
・Kubernetes/OpenShift/vCenter
New【Java】大規模データ収集基板構築の求人・案件
業務委託(フリーランス)
JavaHadoopApacheKafkaKubernetes
作業内容 大規模データ収集基板構築(オンプレにて構築)に伴い、システム検証/設計、ミドルウェア選定、パフォーマンス検証等にご協力いただける方を募集します。・新環境(分散FS環境)向け機能開発、既存機能の新環境向け修正
・アプリケーションの改修、機能追加
・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)、運用機能の開発
開発環境
・Java・Hadoop(Cloudera)・Apache kafka・Apache spark・Kubernetes/OpenShift/vCenter
【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
地図広告プラットフォーム開発
【BigQueryなど】データ分析基盤の開発・構築の求人・案件
業務委託(フリーランス)
HadoopRedshiftBigQuerySnowflake
作業内容 データ分析基盤の開発・構築を行なっていただきます。
Splunk / SQL コールセンター運用改善のための基盤構築やデータ連携
JavaPythonSQLShellPL/SQLLinuxHadoop
コールセンター
作業内容 サービス関連ログ・サービス関連データをElasticserach、Hadoopクラスタ基盤(オンプレ)及びSplunkへ集約し、コールセンターの運用改善等のデータ活用を実施しております。
<作業詳細>
Splunk上でのダッシュボード開発ではなく、基盤の構築・運用やElasticserach、Hadoopクラスタ基盤(オンプレ)及びSplunkへのデータ連携の開発が、主なスコープとなります。
データ連携については、Splunk Forwarder、Logstash、Talend(Java)、Pythonを併用しております。
【分析基盤エンジニア】データエンジニアリング業務 (HR領域)
業務委託(フリーランス)
SQLGoogle Cloud Platform
作業内容 お客様と要件を整理し分析用のデータマートを作成します。データ加工用のSQLを作成したり、データマートの設計が主な業務となります。
使用データベースはGCP/BigQueryを利用
一部のクエリは既存からの移植となり、移植元はHadoop(HIVEで接続)です。
【データ分析補佐】GPSデータを用いた予測支援
業務委託(フリーランス)
PythonSQLMySQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 1.GPSデータを用いた予測支援2.SaaS型プロダクトの開発支援 上記いずれかにおいてデータエンジニア業務に従事いただきます。
New【Python】バックエンドエンジニアの求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWS
バックエンドエンジニア
作業内容 エンドクライアントを支援するサービスのダッシュボードのデータベース設計、API開発、ETL処理の開発をする業務をお願いします。
[具体的な業務]
・RDBのデータベース設計
・Glue JobでPythonを利用したETL処理の設計・開発
・API Gateway、Lambdaを利用したAPI開発
・技術的知見からの、プロダクトオーナと協調した仕様策定
・AWS関連リソースのより積極的な活用
・git flowベースの開発進行
【Python/AIエンジニア】探索型BIツール開発におけるデータサイエンティスト
業務委託(フリーランス)
PythonHadoopSparkTableau
データサイエンティストAIエンジニア機械学習エンジニア
作業内容 [ポジション]:AIエンジニア
自社で探索型BIツールを開発しており、そこにおける人材を募集
・検索・機械学習エンジンの開発・実装、および性能改善
・自然言語処理を使用した検索エンジンの開発
・大規模分散処理を伴う汎用的な機械学習エンジンやモデルの開発
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
【Python】データーレイク開発の求人・案件
業務委託(フリーランス)
PythonLinuxAWSDockerGitRedshift
作業内容 概 要:
世界各国で利用されるオンラインサービスにおけるデータ分析基盤の開発運用支援をお願い致します
【Python/SQL】データ分析基盤開発エンジニアの求人・案件
業務委託(フリーランス)
PythonSQLAWSGitGitHubGoogle Cloud PlatformBigQuery
作業内容 社内データ分析基盤開発・保守・運用業務を担っていただきます。■Python/Shell/Rubyで開発されているバッチ系システムが主
・データレイクへの取り込み
・中間テーブル生成
■追加機能開発 / 不具合調査・修正 / 社内ユーザーからの問合せ対応
・社内ユーザコミュニケーションや要件定義も含む
・インフラからコードデプロイまでを担当
- ローカルで実装、Sandbox環境で動作検証、Productionデプロイ
【ITコンサル】ITアーキテクトの求人・案件
業務委託(フリーランス)
ITコンサルタントITアーキテクトコンサル
作業内容 データプラットフォームのシステムアーキテクチャの作成やシステム開発を行なう上で必要なOSSを中心とした技術要素の選定をご担当頂きます。
【AWS/Python/リモート併用】インフラ構築の案件・求人
業務委託(フリーランス)
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【SQL】ビックデータ基盤構築・運用の求人・案件
業務委託(フリーランス)
PythonSQLShellLinuxElasticsearch
作業内容 ビックデータ基盤構築・運用案件になります。
現在、オンプレにて社内システムのログをElasticsearch/Hadoopに集約し、
各組織にレポート等の可視化機能を提供している基盤を運用しております。
今回追加データの可視化の要件がありますので、
データパイプライン構築と可視化に伴う設計・構築を中心にご支援いただける人を探しています。
基本リモート|【Python】toC向け自社サービスにおける機械学習エンジニア募集|神田|No.3540
業務委託(フリーランス)
PythonMySQLFlaskAWSDockerGitGitHubGoogle Cloud PlatformBigQueryPyTorchTerraform
機械学習エンジニア
作業内容 機械学習エンジニアとしてサービスの改善/開発を行っていただきます。主にデータを活用したアルゴリズムの開発とその基盤開発を担当していただきます。
- 機械学習技術を用いたサービス開発および改善。具体的には推薦システムや診断といったサービスに従事していただきます。
- 機械学習モデルの安定的な運用・基盤整備(ML pipeline/MLOps)
- 香りのデータを活かしたチャレンジングな課題の解決(R&D)
- データ利活用のためのデータ基盤整備(Data Engineering/Data pipeline)
【Python(データ分析系)】【業務委託(準委任)】バッチ開発・運用(フルリモート)
業務委託(フリーランス)
PythonGoogle Cloud Platform
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データエンジニアとして、自社独自のデータ集積のプラットフォームを持つ運営する企業にて主に様々な種類のDBのバッチ開発・改修・運用業務をお願い致します。
■具体的な作業内容
・Pythonを使ったバッチ開発/改修/運用
・データインサートetc.
■参画先企業について
世界中の特許・論文データや研究費・ベンチャー企業の資金調達情報などを扱っており投資データや特許データなど財務データと非財務データを組み合わせて事業戦略策定のコンサルティング提案などのサービスを行っております。
■参画先チーム
データ収集~データ処理を行っている部署です。
データの翻訳やデータ処理の高速化/自動化などを手掛けておりプログラミング言語はPython、Google Cloud Platform環境での業務で現場は5名のチーム体制です。
■工程:開発~運用
■環境
言語:Python
インフラ: Google Cloud Platform
データベース: PostgreSQL
DWH:BigQuery
ワークフロー: Google Cloud Composer (Apache Airflow)
その他ミドルウェア: Dataflow(Apache Beam), Dataproc(Apach Spark) , Cloud Run
その他開発環境: GitLab, Slack, GROWI
【AWS/GCP/Azure/リモート併用】Pythonエンジニアの案件・求人
業務委託(フリーランス)
PythonAWSAzureGoogle Cloud PlatformDevOps
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
某企業の各プロダクトのバックエンド開発を行って頂きます。
スクラム開発を採用しており、同じチームに居るプロダクトマネージャ、デザイナー、フロントエンジニア、バックエンドエンジニア、薬剤師などと共に、バックエンドの専門家としてリーダーシップを取って開発を行って頂きます。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【SQL/Python/リモート併用】ライフエンディング領域のDX化企業のユーザー分析基盤の案件・求人
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
【案件概要】
データ分析基盤の開発エンジニアとして、当社が扱うビジネス上のつながりのデータや、ユーザーの行動データを活用するための分析基盤開発を行うことで、事業の成長を担っていただくことがミッションです。
【具体的な業務内容】
・データのETL処理やETL処理のためのスクリプト・システム開発運用業務
・データの傾向や内容を知るための集計・分析・可視化
・AWSを用いた分析基盤構築および運用業務
・当社で取り扱うデータのセキュリティ対応
■作業環境__:Windows/Mac選択可
■開発環境
言語____:Python,SQL
DB____:BigQuery
環境・OS_:AWS(AmazonWebServices)
■開発工程__:基本設計|詳細設計|実装・構築・単体試験|運用・保守
【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム(ビッグデータ基盤担当)の案件・求人
業務委託(フリーランス)
JavaPHPPythonSQLGoAWSGit
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、システム開発エンジニア枠(ビッグデータ基盤担当)を募集しております。
<主な業務内容>
主に大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、オーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。
インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】