NEW【クラウドエンジニア(AWS)】【業務委託(準委任)】データレイクエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データレイクエンジニアの業務をお任せいたします。
■具体的な作業内容
①AWSのデータレイク(Amazon S3+Glue Data Catalog)からBigQueryへのデータ移行作業
②Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(②については本人の意向、能力等を鑑みて判断とさせてください)
★元請直/リモート/AWS/EMR:データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
NEWPython/SQL 開発・保守および運用に関する支援業務(基本リモート)
作業内容 ・データ加工のバッチ開発/運用(データ設計、ETL処理の開発)
・カテゴリ付与などのデータ加工の検討/実装など
NEW【Python(データ分析系)】【業務委託(準委任)】データレイクエンジニア
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データレイクエンジニアとしてご活躍いただきます。
■具体的な作業内容
1. AWSのデータレイク(S3+Glue Data Catalog)からBigQueryへのデータ移行作業
2.Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(2については本人の意向、能力等を鑑みて判断とさせてください)
CRM施策に関連するデータ加工/抽出/分析業務
PythonSQLMySQLPostgreSQLGitJIRABigQueryHive
作業内容 CRM施策に関連する、以下の業務をご担当いただきます。
■具体的には…
・メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成
→事前データ調査やユーザーリストの作成
・事業KPI設計
・成果レポート用クエリ作成
・BIツール移行対応
・施策ヒアリング等の要件定義
■開発環境
PC:Mac(JIS/US 選択可)
ミドルウェア:MySQL、PostgreSQL
管理ツール:Slack、Jira、Confluence、Git
その他:BigQuery、LookerStudio、Redash、Hive
■担当工程
要件定義、基本設計、詳細設計
保守改修、運用
※アダルトコンテンツ一部有り
レポート作成やセグメントに利用するSQLの業務では直接的に触れる形ではないが、
抽出データ内に作品タイトルなどが表示されるケースあり
【データ加工分析/フルリモート】開発グループ_SQLエンジニア募集
作業内容 案件概要:開発グループ_SQLエンジニア募集
業務内容:
CRM施策に関連するデータ加工/抽出/分析を行う業務
メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成
L事前データ調査やユーザーリストの作成
事業KPI設計
成果レポート用クエリ作成
BIツール移行対応
施策ヒアリング等の要件定義
開発環境:
PC:Mac(JIS/US 選択可)
ミドルウェア:MySQL、PostgreSQL
管理ツール:Slack、Jira、Confluence、Git
その他:BigQuery、LookerStudio、Redash、Hive
業務環境:
テクノロジー部全体:31名
開発グループメンバー:20名
配属先チーム:リーダー1名、メンバー7名
男女比:10:0(部全体では8割男性)
平均年齢:32歳
勤務時間:10:00~19:00
場所:六本木一丁目(基本リモート)
※地方相談可
※初日はガイダンスの為、出社いただきます
備考:
・アダルトコンテンツ:一部あり
・弊社より20名ほど参画中のエンドクライアントです
外国籍:応相談 ビジネスレベル、日本在住の方のみ
【Python/BI/リモート】エンタメサービスのユーザー行動分析
業務委託(フリーランス)
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析
■内 容:
・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細>
・分析基盤整備
└ダッシュボードの作成(KPIツリー、目的別ボード)
└ユーザー行動の可視化(推移、利用特性)
└分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
└データを用いた仮説検証(機能、UI改善、施策)
└ユーザー行動(数値化、可視化、セグメント分類)
└効果検証(広告、キャンペーン、メールマガジン等)
└得られたデータを元にしたインサイトの提供
Python データアナリスト募集
PythonSQLJIRAGitHubBigQueryTableauGoogle AnalyticsCircleCI
データアナリスト
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
【役割】
事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること
■ 分析基盤整備
・ダッシュボードの作成(KPIツリー、目的別ボード)
・ユーザー行動の可視化(推移、利用特性)
・分析基盤整備の推進(データ取得の推進、課題点洗い出し)
■ 分析
・データを用いた仮説検証(機能、UI改善、施策)
・ユーザー行動(数値化、可視化、セグメント分類)
・効果検証(広告、キャンペーン、メールマガジン等)
・得られたデータを元にしたインサイトの提供
【働く環境】
・海外や多地点との協働
・メインが日本語で、英語は読み書きが頻出 ※スキルに応じ英会話等も利用の可能性あり
【使用ツール】
開発言語
・Go
インフラ環境
・Google Cloud
・Cloud Spanner
・Cloud Function
・Cloud Run
・BigQuery
ソースコード管理:GitHub
CI/CD: CircleCI, Cloud Build
監視・モニタリング: Google Cloud Logging, Google Cloud Monitoring
インシデント管理: PagerDuty
コミュニケーション: Slack, Google Meet
プロジェクト管理、ドキュメント: JIRA/Confluence/DocBase
【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件
業務委託(フリーランス)
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細> ・分析基盤整備 └ダッシュボードの作成(KPIツリー、目的別ボード) └ユーザー行動の可視化(推移、利用特性) └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析 └データを用いた仮説検証(機能、UI改善、施策) └ユーザー行動(数値化、可視化、セグメント分類) └効果検証(広告、キャンペーン、メールマガジン等) └得られたデータを元にしたインサイトの提供
<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase
【Hadoop】データ取得ジョブの新規作成など
作業内容 ■概要
某株式会社にて、Hiveを使用して、社内の大量データに対してデータ取得を行うデータサイエンティストに近い業務となります。
■具体的な作業内容
・データ取得ジョブの新規作成、改修(主なツールとしてTalendを使用)
・Hadoop - Teradata間のデータ整備
・MySQL等のデータベース間とのデータ整備
【DBエンジニア (SQL全般)】【業務委託(準委任)】データ分析基盤上でのデータエンジニアリング利用者支援案件
業務委託(フリーランス)
PythonSQLHadoopHive
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
全社横断のデータ分析基盤上でデータエンジニアリングや利用者支援を行う案件で、今年度の実施タスクは下記のとおりでが、作業スコープや仕様の調整から対応頂く想定でおります。
■具体的な作業内容
・既存バッチ処理(Hive/Informatica/Databricks)の運用、保守
・分析用汎用データの新規バッチ処理開発(Databricks)
・Informatica/Hive→DatabricksへのAPマイグレーション
・メタデータ登録、データカタログ製品の比較検討
・分析者マニュアル作成、バリューエンジニアリング検討、など
【開発系PMO】【業務委託(準委任)】某大手通信事業者/Hadoop環境移行支援
作業内容 ■概要
某大手通信事業者/Hadoop環境移行PMO支援をお任せいたします。
■具体的な作業内容
・Hadoop環境移行及び現行/新規にて発生する障害に対するPMO支援
・ユーザー側PMOチームメンバー
・クラスタ運用に伴う課題解決
・スケジュール、課題の管理、ステークホルダー調整
【SQL,R】不動産広告事業向けデータ分析/週3~5日
業務委託(フリーランス)
PythonSQLRLinuxApacheHive
作業内容
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
人材業界でのデータエンジニア募集
業務委託(フリーランス)
JavaSQLScalaHadoopSparkApacheHive
アプリケーションエンジニア
作業内容 ■業務内容
(1)Hive、Apache Spark、SQLなどを⽤いたデータ抽出、加⼯
(2)HDPコンポーネントを⽤いたデータ処理フロー構築、データ可視化
(3)Apache Spark MLlibなどを⽤いた機械学習アプリケーションの実装
稼 働:週2日~5日 相談可能
時 間:9:30 - 18:30(応相談)
服 装:ビジネスカジュアル・私服
【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
地図広告プラットフォーム開発
【BigQuery】機械学習関連DWHエンジニア募集|フルリモート|~100万
業務委託(フリーランス)
PythonSQLLinuxAWSAzureDockerBigQueryHiveSnowflakeTerraformLambda
データベースエンジニア
作業内容 機械学習を用いた予測システムの開発・運用データエンジニア(DWH)
エネルギー業界向けに機械学習を用いた予測システムの開発・運用
・多モデル予測パイプラインの設計
・監視・通知の仕組みの設計 etc..
・希望に応じて機械学習モジュールの開発も可能
【分析基盤エンジニア】データエンジニアリング業務 (HR領域)
業務委託(フリーランス)
SQLGoogle Cloud Platform
作業内容 お客様と要件を整理し分析用のデータマートを作成します。データ加工用のSQLを作成したり、データマートの設計が主な業務となります。
使用データベースはGCP/BigQueryを利用
一部のクエリは既存からの移植となり、移植元はHadoop(HIVEで接続)です。
モバイルアプリデータ解析支援
業務委託(フリーランス)
RubyMySQLRailsSparkApacheBigQueryHive
作業内容 モバイルアプリの解析・マーケティングツールの提供、
アプリの企画・戦略コンサルティングを行っている企業にて
以下の作業を行う。
・分析に必要なデータパイプラインの構築や中間データの整備
・統計的手法や機会学習等の技術を用いて設計されたアルゴリズムやモデルの実装
ビッグデータ基盤システムの構築、開発、保守
業務委託(フリーランス)
JavaPHPPythonSQLGoHadoopAWSApacheGitHive
インフラエンジニア
作業内容 ・主に大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築からオーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。・インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。
BIツール(データマーケティング)の並びに導入支援 ~アーキテクト~
業務委託(フリーランス)
JavaRubyGoUnixApacheHive
作業内容 <業務内容>
アーキテクトチームにて、開発チームでは解決の難しい、
または機能横断的で影響範囲の広いような、難易度の高い課題解決に従事いただきます。
お願いする事柄は、単なるプログラム修正やインフラ整備だけではなく、技術検証やソリューションの策定など多岐に渡ります。
解決困難な課題に対して、楽しみつつも能動的にアクションを取れる方を求めています。
【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データ基盤整備をお任せします。
リソース逼迫のため、人員増員いたします。
■具体的な作業内容
1. AWSのデータレイク(S3+Glue data catalog)からBigQueryへのデータ移行作業
2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(2については本人の意向、能力等を鑑みて判断とさせてください)
■業務環境
メンバー:3名(TL1名、エンジニア2名)
※部全体:50名弱
■開発環境
・言語:Python, Hive, Spark
・AWS:EMR, Glue, Athena, Lambda, API Gateway
・Google Cloud Platform:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows
■担当工数
1.開発/保守改修
2.基盤設計/基本設計/詳細設計/開発
【クラウドエンジニア(AWS)】【業務委託(準委任)】自社サービス開発
作業内容 ■概要
テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark、HBase、Hive、Presto、Hudiといった分散DBの知見のある方を募集いたします。
■具体的な作業内容
・データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
【クラウドエンジニア(AWS)】【業務委託(準委任)】データ基盤整備
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
データ基盤整備をお任せします。
■具体的な作業内容
1. AWSのデータレイク(S3+Glue data catalog)からBigqueryへのデータ移行作業
2. Google Cloud Platformデータ基盤の整備(ワークフローエンジン導入等)
(2については本人の意向、能力等を鑑みて判断とさせてください)
■募集背景:リソース逼迫のため、人員増員
■業務環境:メンバー:3名(TL1名、エンジニア2名) ※部全体:50名弱
■開発環境
・言語
Python, Hive, Spark
・AWS
EMR, Glue, Athena, Lambda, API Gateway
・Google Cloud Platform
BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows
・CI,CD,その他
Terraform, CircleCI, GitHub Actions, Digdag, Embulk
■担当工数
1.開発/保守改修
2.基盤設計/基本設計/詳細設計/開発
【Java,Javascript,MySQL,基本設計,Hadoop】レコメンドエンジン開発
業務委託(フリーランス)
JavaJavaScriptMySQLHadoopSparkJenkinsAnsible
アプリケーションエンジニア
作業内容 ・node.js でのAPI設計・開発・テスト
・Hiveクエリの作成・テスト・チューニング
・Spark プログラムの設計・開発・テスト
・Jenkinsジョブの作成
・Ansible設定ファイルの作成
【Python,SQL/分析基盤エンジニア】法人営業企業系 データ分析及び、システムデータ分析基盤構築支援 (分析エンジニア/分析基盤エンジニア)
業務委託(フリーランス)
PythonSQLUnixSparkAWSDockerApacheHive
作業内容 [ポジション]:分析基盤エンジニア
◇データ分析対応チーム、もしくはデータ分析基盤構築チームにて、 A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など) B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など) のいずれかをご対応いただく予定です。・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。 [稼働先最寄り]・基本リモート or 現場常駐(出社時は東京都 港区エリア) ※現状、タスクに応じて50/50で対応中 ※ご面談設定の際に、詳細情報を連携させていたます。
[募集人数]
・メンバー枠:
データ分析エンジニア : ~1名
データ分析基盤構築エンジニア: ~最大3名
【SQL,BI】データ分析基盤構築支援
作業内容 SQLを用いた指標の集計
分析基盤整備、KPI可視化ツールの作成
社内施策及び外部要因の影響の定量分析
プロモーションの投資回収予測及び効果測定
【Ruby on Rails】【業務委託(準委任)】自社マーケティングプラットフォームシステム開発支援
JavaScriptRubyRailsAWSAzureGoogle Cloud PlatformVue.js
作業内容 ■概要
自社マーケティングプラットフォームシステム開発支援の案件になります。
■具体的な作業内容
・アプリケーションの実装方針の検討、概要設計、実装、実装内容のレビュー等を中心に行っていただきます。
・また、アーキテクチャの見直しやパフォーマンスの改善等、より難易度の高い課題の解決に従事していただきます。
■開発環境:
■プログラミング言語:Ruby on Rails 等
【AWS/Python/リモート併用】インフラ構築の案件・求人
業務委託(フリーランス)
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【SQLなど】大手広告配信プラットフォームでのデータ分析・管理の求人・案件
業務委託(フリーランス)
C++JavaPythonSQLLinuxAWSApacheGitGoogle Cloud PlatformTerraform
データアナリスト
作業内容 【概要】
・広告配信における傾向の分析及び、異常の検知
・WEB広告の種別、サイト内での掲載位置、閲覧ユーザーの情報から成果の確認
・ユーザの行動分析を行い、最も効果が高くなる広告を推測する
・Treasure Data等を経由して連携されるユーザーデータの管理
・データパイプラインの保守運用
【開発環境】
Python、PyTorch、Hive、PySpark、PostgreSQL、Apache Airflow
Google Cloud Dataproc、BigQuery、Cloud Composer
GitHub、Slack