フルリモート!AIやディープラーニングを活用したデータサイエンティスト募集
JavaScriptPythonSQLMySQLDjangoFlaskGoogle Cloud PlatformBigQueryNuxt.js
データサイエンティスト
作業内容 機械学習(AI)や深層学習(ディープラーニング)などを活用して、
アルゴリズムの開発やレコメンドモデルの開発を行っている企業にて、
自社独自のプロダクトや顧客に導入したシステムの膨大な量のビッグデータのデータ分析を行っていただきます。
<開発環境>
言語:Python、Go、SQL(BigQuery)、JavaScript(BQ udf、Nuxt.jsなど)
フレームワーク:gin、Flask(API)
データベース:BigQuery、MySQL
ソースコード管理:GitHub
プロジェクト管理:zube
情報共有ツール:slack、Confluence
インフラ:GCP
【データアナリスト】カスタマーサクセス構築案件
業務委託(フリーランス)
SQLGitBigQuery
インフラエンジニアデータベースエンジニアデータアナリスト
作業内容 ・SuccessHubという、サービスにおける環境構築案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-クライアントのデータ、プロダクトデータなどの結合
-SQLを使ったデータの抽出、加工
-ビジネスチームとの協業におよぶクライアント向けのデモ提供
-BIツール構築におよぶ利用状態の可視化
【SQL】中古車情報サイトのデータ活用案件
業務委託(フリーランス)
SQL
データサイエンティストサーバーサイドエンジニア
作業内容 中古車サイトのデータ活用に関する、様々なデータ可視化案件を担当する。
・BigQueryのデータを掛け合わせて、Tableauで参照しやすい分析マートの構築
・営業担当者が活用しやすいビジュアライズをTableauで構築する
【Power BIなど】サステナビリティ・トランスフォーメーションのソリューションの営業支援人材の求人・案件
業務委託(フリーランス)
Google Cloud PlatformBigQuerySnowflake
データアナリスト
作業内容 ・お客さんのニーズから要件をリードして、お客さまとデータエンジニアリング、アナリティクスの議論をしながら、ビジネス設計をする。
【Python】リード分析基盤エンジニアの求人・案件
業務委託(フリーランス)
PythonSQLAWSGoogle Cloud PlatformBigQueryAurora
作業内容 リードエンジニアとしてデータ分析基盤の設計・構築・運用をおまかせします。
・各種システムからのBigQueryへのデータパイプラインの設計・構築・運用
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・Issue対応
・技術調査
開発環境
言語 : Python,
データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL
インフラ : AWS (ESC,EC2, S3, Lambda etc.) , GCP,Dagster,Airflow
バージョン管理 : git/Github
CI : CircleCI, Jenkins
コミュニケーション : Slack, JIRA, ClickUP, Notion
【BigQuery,SQL,DWH】共通分析用ビッグデータ基盤の運用、構築業務
業務委託(フリーランス)
PythonSQLDockerGitJenkinsBigQueryTerraformKubernetes
作業内容 ・エンド会社の共通分析用データ基盤の運用、構築業務
・エンド会社の持つビックデータを保持、分析するための基盤(BigQuery)の運用、構築業務
・具体的な作業例は、次のようなものになります。
-社内のあらゆるデータを集約したセントラルDWHの構築
-データ連携・データマート作成フレームワークの開発
-フレームワーク用いたホットペッパー等の各サービスDBやWebログ連携の実装
-分析者・事業側エンジニアのデータマート作成やSQLチューニング支援
PM補佐 クレジットカード会社の次世代DWH(DMS)開発支援
SASOracleAWSAzureGoogle Cloud PlatformBigQuery
PMPMO
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、
複数社が持つデータを掛け合わせた分析が可能な、データ分析基盤を構築するPJが進行しています。
・ポジション:PM補佐
・業務内容:
上記PJにおける大手小売企業の子会社のクレジットカード会社パートの開発において、
グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行う。
・開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
・実施工程:
FY23でオンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、FY24では完全移行を目指す。
※想定工程:2024年7 月~要件定義開始、2025月5月にリリースを目指す
【SQL/Python】インフラ構築エンジニアの求人・案件
業務委託(フリーランス)
PythonSQLGoogle Cloud PlatformBigQueryTableauSnowflake
作業内容 データ分析基盤となるDWHの構築および保守運用支援
【SQL】某アパレル企業におけるGCP開発運用保守の求人・案件
業務委託(フリーランス)
SQLApacheGoogle Cloud PlatformBigQuery
作業内容 基幹システムからGCPへの取り込み処理およびGCP内でのデータマートの開発運用保守を実施
・データエラーカバー等
情報通信会社データマーケティング支援(アドバイザー)
業務委託(フリーランス)
SQLGoogle Cloud PlatformBigQuerySPSS
サーバーサイドエンジニア
作業内容 下記①②を実施しているが、分析に関する示唆出しアドバイザーとして参画
① 出版社の購読者層分析
② 教育関連アプリの動向分析
【BigQuery】機械学習関連DWHエンジニア募集|フルリモート|~100万
業務委託(フリーランス)
PythonSQLLinuxAWSAzureDockerBigQueryHiveSnowflakeTerraformLambda
データベースエンジニア
作業内容 機械学習を用いた予測システムの開発・運用データエンジニア(DWH)
エネルギー業界向けに機械学習を用いた予測システムの開発・運用
・多モデル予測パイプラインの設計
・監視・通知の仕組みの設計 etc..
・希望に応じて機械学習モジュールの開発も可能
【Python/SQL】データ分析基盤追加開発/運用保守の求人・案件
業務委託(フリーランス)
PythonSQLGitBigQueryTerraform
作業内容 作業内容:(上から優先度が高い順)
1.詳細設計、実装
データロード処理の追加、改修
(Pythonの追加実装・修正、Cloud Functionsのデプロイを含む)
マート作成処理の追加/改修(SQLの追加実装/修正)
2.単体・結合テスト項目作成とテスト実施
単体テスト、結合テスト、システムテスト
3.運用保守
バッチ処理失敗時の原因調査、影響範囲調査、リカバリ
4.バッチ処理仕様調整
既存処理リファクタリング、追加実装の技術検証、要件確認等
健康サービスアプリ/データサイエンティスト支援
SQLBigQueryAthena
データサイエンティスト
作業内容 健康サービスアプリのデータ分析領域におけるデータサイエンティスト支援となります。
主な業務として以下を行なっていただく予定です。
・利用ユーザーに関わる分析:顧客属性/商品情報/利用履歴
・事業貢献に関わる分析:上記分析に加え、当該ユーザーのXB、解約に関わる分析
・パーソナライズに関わる分析:機械学習を用いた高度化
・健康サービスアプリ以外の施策に関わる分析
<開発環境>
・分析ツール:GA4/Athena(SQL)
・BigQuery
【Linux/Hadoop】BigQuery運用構築案件
業務委託(フリーランス)
ShellLinuxHadoopBigQuery
インフラエンジニアサーバーエンジニア
作業内容 ・運用設計を行っていただきます。
・下記に携わっていただきます。
-Hadoopマイグレに伴うアプリケーション移行の実施
-Hadoop上で実施しているマート、加工クエリの移行
【SQL】大手コスメサイト展開企業におけるデータ分析業務
業務委託(フリーランス)
SQLBigQuery
アナリスト
作業内容 大規模コスメサイトのデータ分析の部署での業務となります。
即戦力の募集となります。
New【GCP】顧客分析基盤構築の求人・案件
業務委託(フリーランス)
Google Cloud PlatformBigQuery
作業内容 概要:
エンド企業へGCP導入にあたってのデータエンジニアを募集しています。業務例:
・顧客折衝、要件整理、ドキュメンテーション
・データパイプライン設計構築
・DWH、データマート設計構築環境:
GCP(BigQuery,Dataflow等)
【AIエンジニア】需要予測アルゴリズム開発
業務委託(フリーランス)
PythonSQLGoogle Cloud Platform
AIエンジニア機械学習エンジニア
作業内容 大学と提携し、AI開発を行っている企業にて、
需要予測アルゴリズム開発のビッグデータ分析をご担当いただきます。
(開発環境)
プログラミング言語:Python, SQL(BigQuery)等
データベース:BigQuery等
クラウド環境: GCP等
【SQL】某アパレル企業におけるGCP開発運用保守の求人・案件
業務委託(フリーランス)
SQLApacheGoogle Cloud PlatformBigQuery
作業内容 基幹システムからGCPへの取り込み処理およびGCP内でのデータマートの開発運用保守を実施
【SQL/Python】データ分析基盤エンジニアの求人・案件
業務委託(フリーランス)
PythonSQLGoogle Cloud PlatformBigQueryTableauSnowflake
作業内容 ・データ分析基盤となるDWHの構築および保守運用支援
【Python/ETL/BigQuery/フルリモート】マーケティングサービス向けデータエンジニア募集
業務委託(フリーランス)
PythonBigQuery
作業内容 デジタルマーケティングを行っているスタートアップベンチャー企業での募集になります。
業務内容としては主に以下となります。
・データパイプラインの運用保守
・ビッグデータのデータ操作
・可視化ツールによる可視化
・データ分析 - クラウドインフラ管理、最適化
など
Python/SQLエンジニア データ可視化支援業務
業務委託(フリーランス)
PythonSQLAWSGoogle Cloud Platform
作業内容 GCPのBigQueryに蓄積されている、テレビの視聴率などの広告に関連するビッグデータを利用した以下3点を実施。
・Lookerによるキャンペーン効果の可視化
・可視化のためのデータマートをBigQueryで開発
・データマート内のデータを定期的に更新するためのバッチ開発(Airflow、Dataflow、CloudFunctionなどを利用)
【SQL/Python】某アパレル企業における物流分析の求人・案件
業務委託(フリーランス)
PythonSQLBigQuery
作業内容 メインは顧客、販売在庫関連における分析テーマをPythonを用いてアドホック分析して示唆出しまでを実施
【Python/SQL】大手小売/MLエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLGitGoogle Cloud PlatformBigQuery
AIエンジニア
作業内容 クライアントドメインを使ったRecBoleでのオフライン指標出し&レコメンドデータの抽出を調査、開発、手順化
・MLシステム基盤の移行
・GCP Cloud ComposerからVertex AI Pipelineへの移行
・GCP Bigquery scheduleQueryからVertex AI Pipelineへの移行
・既存本番MLシステムの障害対応(影響調査含む)
【SQL】スマホゲームデータ分析案件
業務委託(フリーランス)
SQLCocos2dBigQuery
データサイエンティスト
作業内容 ・大人気スマホアプリのデータ分析を担当していただきます。
・日々蓄積されるデータを用いて集計や統計分析を行い
サービス改善、課題を把握解決の支援をしていただきます。
・具体的な業務内容は下記を想定しています。
‐分析依頼内容から目的の整理及び分析設計の作成
‐BigQueryでのSQLを利用した集計、データの可視化
‐Lookerでlkmlを利用したexpoloreの作成、ダッシュボード化
‐分析依頼内容のレポート作成
‐分析成果の報告
‐KPI設計、分析セグメント設計
‐BigQueryのテーブル作成
【SQL(リモート)】自動車領域BI系システム開発
業務委託(フリーランス)
SQLBigQueryTableau
作業内容 マーケや営業からの分析依頼の対応
・環境開発はGCPを利用し、SQLで集計データを作成し、Tableauでビジュアライズをして頂きます。
・また、チームとしてGCP環境のデータフローやパイプラインを管理していくので、データ交換やパイプライン構築についても携わっていただければと思います。
New【Python】クローリング/BQ投入/バックエンド処理実装業務の求人・案件
業務委託(フリーランス)
PythonMySQLPostgreSQLBigQuery
バックエンドエンジニア
作業内容 ・求人サイトをクローリング、BQへ投入するなどのバックエンド処理の実装
・設計書作成、テストなどの工程実施
※Salesforce周辺は知見のある弊社エンジニアが担当予定です。【概要】
・クライアント企業様SalesforceCRM上で管理されているエンドユーザ企業を一覧取得
・対象企業をもとに転職サイトをクローリングし、求人情報を取得 ※複数の転職サイトを想定
・BigQueryに投入し、データ整形・変換(業種・業界などサイト個別に異なるワードを統一など)を実施し、結果をSalesforceにもどす。【背景】
・クライアント様が提供されている各種サービス製品を効率的に営業するため、営業または営業事務が転職サイトの求人情報を検索し、新規事業立ち上げ、やDXなどのキーワードをもとにエンドユーザ企業の状況を収集
・取得した情報を営業へ共有し、製品・サービスの営業を実施
※現在は手作業で行われており、これを自動化したい
※情報はBigQueryに溜め込み、今後の動向分析等にも利用したい【システム環境】
・言語:python
・DB:My SQL、Postgres
・DWH:BigQuery
【DBエンジニア(SQL全般)】動画視聴ログのDMP構築支援【リモートOK】
業務委託(フリーランス)
SQLAWSGoogle Cloud PlatformBigQuery
作業内容 ■概要
大手メディア企業が収集する動画視聴ログのDMP構築支援を行います。
対象データは動画閲覧ログであり、様々なプラットフォームのログを保持しています。
直近では更なるデータ利活用に向けて既存テーブルのリファクタリングの改善や新規作成を行っています。
また、コンテンツ内容に合わせた広告の実現に向けた開発を進めています。
今回はデータの拡大により新しいテーブルの設計と実装が必要になります。
幅広くプロジェクトのタスクに携わって頂くことを想定しています。
■具体的な作業内容
・GCP主にBigQueryを用いたビッグデータのテーブル設計・データ集計
・データワークフロー・ETLの設計・数値検証・ドキュメント化
・データの集計と分析作業
■開発環境:
・GCP(BigQuery、Cloud Function、GCE) Digdag Embulk
・Confluence JIRA Bitbucket
Python /SQL/GCP データマート開発エンジニア
業務委託(フリーランス)
PythonSQLLinuxGoogle Cloud PlatformBigQuery
作業内容 集計ジョブの開発
・GCPでの開発・運用
・Python, SQL等を用いた集計ジョブの開発
・結合試験、機能試験、非機能試験等の品質評価
プロダクト運用
・ジョブのパフォーマンスの改善
・ジョブ失敗時の原因調査・修正
<環境>
言語:Python, SQL
DB, DWH:BigQuery, GCS
インフラ:GCP, GCE, Kubeflow
<備考>
フルリモート
後々常駐になる可能性有り
【Databricks/SEリーダー】クレジットカード会社における次世代DWH(DMS)開発支援
業務委託(フリーランス)
AWSAzure
サーバーエンジニアSE
作業内容 大手小売企業においてグループ全体のマーケティング情報を一元的に集約し、複数社が持つデータを掛け合わせ、分析が可能なデータ分析基盤を構築するプロジェクトが進行しています。そこで、クレジットカード会社の開発において、グループ会社各社とBigQuery/Databricks間でデータ連携を行えるようにDWH移行を行います。今回は、DMS開発チーム、プラットフォーム構築チームのそれぞれのリーダをご担当いただきます。
<実施工程>
オンプレDWH(Oracle、SAS)の一部をGCP(BigQuery)に移行しており、
今後は完全移行を目指す。
<想定工程>
2024年7 月~要件定義開始、2025月5月にリリースを目指す
開発環境:AWS/Azure上にDatabricksを構築、GCP上にBigQueryを構築
BigQuery / GCP など データ規定対応プロジェクト クラウドエンジニア
SQLAWSAzureGoogle Cloud PlatformBigQueryTerraform
作業内容 データ規定対応プロジェクト
<主な想定業務>
権限的に整理されていないBigQueryプロジェクト(業務利用中・大量テーブル)があるが、社内データ規定を満たすため、適切なアクセス管理を実現する必要があります。
そのため個別のBQプロジェクト・データセットに分けて行きたいです。
具体的な作業は新しいIAM(アクセス)設定、新規(データセット準備・アクセス権)データ移行・設定作業またそれらを実施するためのシステム、利用ユーザーに対しての調査、ヒアリング、移行の計画立て(移行完了目標:2023/12末)
Teraformを利用した権限一覧取得、アクセス設定等のスクリプト開発とその管理
テーブル定義等のメタデータ登録の実施 ※DataHubを使う想定でしたがバグが多く使わない事を決定
・GCP環境に構築予定のお手伝い
・主業務はデータ(アクセス権)の整理、データ移行と権限管理
・加えてのメタデータシステムの構築、初期運用になります
<基本時間>
10:00~19:00