【MLOps】(フルリモート/週3~)AI系自社統合管理システムのMLOps募集
JavaPythonSQLScalaAWSAzureGoogle Cloud PlatformTypeScriptVue.jsNuxt.jsTerraformKubernetes
作業内容 提供する各種サービスをひとつのIDで使用できる統合管理システムを運用しております。
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。
当社のデータエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。
<具体的な業務内容>
データプラットフォームの企画およびアーキテクチャ設計
データパイプラインの設計・構築
データ分析のためのBIの開発・運用
継続的なモニタリングプロセスの構築・運用
データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
顧客データ活用の実態やドメイン知識の理解
CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等
【Python(データ分析系)】【週4日以上稼働可能な方にぴったり・20代〜40代活躍中!】データ利活用の分析支援|キャッシュレスサービス業界
業務委託(フリーランス)
PythonSQLSASAWSGoogle Cloud PlatformTreasure DataTableauSPSS
作業内容 【20 代から40 代の方が活躍中!】
※週4日〜OK案件です!
※実務経験2年以上ありの方が対象の案件です!
■概要
キャッシュレスサービス業界において、営業商談の成約率向上を目指すデータ分析支援を担当します。データサイエンティストとして、分析モデルの作成やダッシュボードの構築、データの可視化などを行い、エンジニアと協力してビジネス成果の向上を支援します。内部データだけでなく、外部の統計データも活用して客観的な根拠に基づく分析を行います。
■具体的な業務内容
・営業商談の成約率向上を目的としたデータ分析
・内部および外部データを使用した分析モデルの作成
・SQLおよびBIツールを用いたデータ収集・加工・分析
・ダッシュボードの設計および資料作成
・クライアントとの折衝およびデータ分析結果の提案
勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。
------------------------------------------------------------------
直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。
弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。
------------------------------------------------------------------
※弊社では、法人、請負いの案件は取り扱っておりません。
【Pythonなど】MLOpsエンジニアの求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaAWSGoogle Cloud PlatformTypeScriptVue.jsNuxt.jsfirebaseTerraform
作業内容 クライアントでは「商品名○○」など、クライアントの提供する各種サービスをひとつのIDで使用できる統合管理システム「●●」を運用しております。
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。
クライアントのデータエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。
<具体的な業務内容>
・データプラットフォームの企画およびアーキテクチャ設計
・データパイプラインの設計・構築
・データ分析のためのBIの開発・運用
・継続的なモニタリングプロセスの構築・運用
・データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
・顧客データ活用の実態やドメイン知識の理解
・CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等
技術環境
<プロダクト開発部>
言語:TypeScript, Python, Flutter
フレームワーク:Vue.js, Nuxt.js,Node.js
データベース:Cloud Firestore
インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
ソースコード管理:Bitbucket
プロジェクト管理ツール:Notion, JIRA
コミュニケーションツール:Zoom, Slack, Google Workspace
<R&D部門>
開発言語:Python
フレームワーク:PyTorch, HuggingFace, SpeechBrain, scikit-learn
【直接取引】【データエンジニア】学習サービス事業のデータエンジニア
業務委託(フリーランス)
SQLAWSGoogle Cloud Platform
データサイエンティスト
作業内容 下記の業務を担当して頂きます。
1. データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・ データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用
開発環境は下記になります。
● インフラ
○ GCP (データ基盤) / AWS (関連システム)
● データパイプライン (ETL)
○ CloudComposer (Airflow)
● DWH
○ BigQuery
● その他インフラ管理
○ Docker
○ GKE / GAE / CloudRun
● 可視化ツール
○ Google Data Portal / Tableau
● 分析環境
○ Jupyter Notebook / Google Colab / Google Cloud ML
● その他
○ GitHub / Slack / Notion
【PM】デジマ推進プロジェクト/0.5人月~可
業務委託(フリーランス)
PythonSQLAWSAzureGoogle Cloud Platform
データサイエンティストPMWebマーケター
作業内容 【募集背景】
デジタル化データ活用を目指す企業様からの引き合いが非常に多い状況です。
PJを牽引できる PM・コンサル層が不足しております。
【案件内容】
案件を受注しているクライアントのデジタルマーケPJの推進役をお願いします。
稼働は、0.5人月程度で(週1クライアントサイドでMTG)をしていただきます。
お客さま一人ひとりのニーズに沿った One to One マーケティングを実現することを通じて、
顧客体験価値(CX)の向上と売上向上を目指しています。
【顧客課題】
・顧客を理解するためのデータ及び分析環境の不足
・マーケティング基盤の不足
・デジマ推進における運用体制の不足
【実現したいこと】
上記課題に対して、自社MA製品を導入し施策実施。
仮設立案、分析、可視化した結果からKPIの設定、売上目標などを先方と調整し、
実際のパーソナライズ施策に落とし込み効果測定、課題確認を実施する伴走支援。
スケジュール策定から双方の対応範囲・役割の提示など、プロジェクトマネジメントも対応をお願いしたいです。
・分析、可視化、施策実施といったデジマPDCAサイクルの推進経験
・顧客のやりたいことに対しての実現方法検討
・MA製品導入における施策含め、プロダクトメンバーの管理
【インフラリーダー】小売業での業務系システムのフルリプレイス
業務委託(フリーランス)
AccessAWSAzureGoogle Cloud Platform
ITコンサルタントネットワークエンジニアサーバーエンジニア社内SEPMPMOSRE
作業内容 ■業務内容
小売業の情シスインフラリーダー案件です。
ユーザー企業の情シスインフラリーダーとして同社の業務システムのリプレイスを主導いただきます。
同社では既存の業務システムが古く、サーバーがEOSLを起こしており、
今後の運用に向けてインフラ周りの改善が急務となっておりますが、
プロジェクトを推進できるリソースが不足しております。
以下業務内容の一例です。
※全ておひとりでご対応いただくという訳ではございません。
・現行システムのSQL サーバーにおける Microsoft Access を使ったデータ処理
・連携処理などを含むシステム目線でも最適なインフラ環境構築における構想策定、要件定義、運用を意識した計画
・スピード感のあるデータドリブン経営に則したインフラ・データ環境の構築計画・運営
・ベンダーとの折衝・ベンダーマネジメント
・関連するレポーティング・ドキュメント作成
・ビジネス要件検証を迅速に提供できる社内外のITチームの変革(ピープルマネジメントの実践 or サポート)
・業務システムのインフラ・ネットワークの方針・ルール策定
・保守フェーズを想定した運用設計・運用
■募集背景・課題
現行の業務システムが古くなり、劣化や故障などによる業務への影響を予防・改善するために
新しいシステムへのフルリプレイスを進めています。
2024年を目途に完遂する予定の長期案件です。
【GCP/AWS】某大手教育系企業でのデータエンジニア支援の求人・案件
業務委託(フリーランス)
SQLAWSGoogle Cloud Platform
作業内容 データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。
データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用
[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion
[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名
【Python / ~40歳まで】卸売行の需要予測プロジェクトにおけるデータ分析・開発業務
業務委託(フリーランス)
PythonSQLWindowsMySQLDjangoAWSAzureDockerBacklogGitHubKotlinReactGoogle Cloud PlatformTableauTypeScriptAuroraKubernetes
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
■仕事内容
卸売行の需要予測プロジェクトにおけるデータ分析・開発業務
・顧客のビジネス上の課題及び要件を理解し達成に向けての仮説立案及びデータの収集・分析を実施
・顧客から提供されたデータを分析するための分析基盤の構築及び運用
・機械学習モデルの予測精度や汎用性を向上させるための特徴量エンジニアリング
・適切な機械学習モデルを選定・開発し仮説検証を実施
■作業環境:Windows/Mac選択可
■開発環境
■プログラミング言語:Python Kotlin SQL TypeScript
■データベース:- MySQL AWS Aurora (Amazon Aurora)
■Webフレームワーク:- Django React.js
■環境・OS:AWS EC2 (Amazon EC2) GCP (Google Cloud Platform) Azure
■ツール:GitHub Slack Docker Kubernetes Tableau Backlog
■開発工程
要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運用・保守
■人物像
・自ら考え、周りに伝えることができる人
・責任感がある方
■性別:不問
■最寄駅:神谷町駅
■稼働開始:即日
■就業時間:10:00〜19:00
■平均稼働時間:180時間前後
■時間幅:140-200時間
■服装:カジュアル
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
【データ分析/Python / ~40歳まで】卸売行の需要予測プロジェクトにおけるデータ分析・開発業務
業務委託(フリーランス)
PythonSQLWindowsMySQLDjangoAWSAzureDockerBacklogGitHubKotlinReactGoogle Cloud PlatformTableauTypeScriptAuroraKubernetes
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
■仕事内容
卸売行の需要予測プロジェクトにおけるデータ分析・開発業務
・顧客のビジネス上の課題及び要件を理解し達成に向けての仮説立案及びデータの収集・分析を実施
・顧客から提供されたデータを分析するための分析基盤の構築及び運用
・機械学習モデルの予測精度や汎用性を向上させるための特徴量エンジニアリング
・適切な機械学習モデルを選定・開発し仮説検証を実施
───────────────────────
■作業環境:Windows/Mac選択可
■開発環境
■プログラミング言語:Python Kotlin SQL TypeScript
■データベース:- MySQL AWS Aurora (Amazon Aurora)
■Webフレームワーク:- Django React.js
■環境・OS:AWS EC2 (Amazon EC2) GCP (Google Cloud Platform) Azure
■ツール:GitHub Slack Docker Kubernetes Tableau Backlog
■開発工程
要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運用・保守
■人物像
・自ら考え、周りに伝えることができる人
・責任感がある方
■最寄駅:神谷町駅 フルリモート可
■稼働開始:応相談
■就業時間:10:00〜19:00
■時間幅:140-200時間
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
【データエンジニア】某大手教育系企業でのデータエンジニア支援
業務委託(フリーランス)
SQLAWSGoogle Cloud Platform
作業内容 データを用いた意思決定や課題解決に活用するため、各事業・プロダクト・サービスの全てのデータを一元的に収集・保存・管理するデータ基盤の構築を担うポジションです。
データ基盤の開発・改修・保守運用
・データ基盤の物理・論理データモデル設計・開発・保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計・開発・保守運用
[開発環境]
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
その他:GitHub / Slack / Notion
[チーム体制(業務委託の方含む)]
・統括ディレクター: 1名
・データエンジニア: 1名
・機械学習エンジニア: 1名 (兼務)
・データサイエンティスト: 3名
・技術顧問: 1名
【SQL/Python/Rなど】EdTech企業におけるデータアナリスト支援の求人・案件
業務委託(フリーランス)
PythonSQLRAWSApacheGoogle Cloud PlatformRedshiftBigQuery
データアナリスト
作業内容 【業務内容】
EdTech企業にてデータアナリスト(データサイエンティスト)として、データによる
新しい価値創造をゴールとするデータ分析やモデル開発を担っていただきます。
以下、チームで取り組んでいる分析テーマの具体例です。
▼受講者の学習意欲の活性化・学習効果の向上
学習行動ログ及びアンケート調査を用いた活性要因分析
統計的因果推論による施策効果検証
定型レポートのワークフロー開発/ダッシュボード構築
▼受講者集客
非会員向けサイトの会員登録フローのファネル分析
▼法人顧客リピート契約促進
管理画面操作ログや受講者学習行動ログを用いたリピート契約要因分析
定型レポートのワークフロー開発/ダッシュボード構築
▼法人顧客集客
法人顧客向けセミナーの統計的因果推論による効果検証
▼マーケティングリサーチ
ビジネスパーソンや育成人事が感じるビジネススキル/デジタルスキルの課題に関する調査/分析
▼送客
他の(同クライアント)学習サービスへの利用促進を目的とした、志望動機の自由記述データの自然言語処理
【開発環境】
インフラ:GCP (データ基盤) / AWS (関連システム)
データパイプライン (ETL):CloudComposer (Airflow)
DWH:BigQuery
その他インフラ管理:Docker、GKE / GAE / CloudRun
可視化ツール:Google Data Portal / Tableau
分析環境:Jupyter Notebook / Google Colab / Google Cloud ML
監視:Cloud Logging / Stackdriver Logging
その他:Git / GitHub / Slack / Notion
【機械学習エンジニア】学習サービス事業
業務委託(フリーランス)
PythonSQLFlaskAWSDockerGitGitHubGoogle Cloud PlatformBigQueryTableau
データサイエンティスト機械学習エンジニア
作業内容 ■募集背景・課題
現在、弊社内で保持する学習データやアセスメントデータの活用にも本腰を入れ始めています。
機械学習によるデータ活用の方向性としては、教育業界におけるインパクト創出と既存サービスの成長支援の2パターンで考えています。
例えば下記のようなテーマを想定しています。
・教育業界におけるインパクト創出: 個別学習実現のための機械学習モデル開発
・既存サービスの成長支援: 弊社サービスにおけるレコメンドモデル開発
またR&D的な取り組みとして、集合研修などリアルな場におけるデータ解析なども検討しています。
これらの実現のために、データ専門性の高い人材を集めたデータサイエンスチームを組成し、体制強化を進めています。
なお、チーム内での役割分担は下記のようにしています。
・データサイエンティスト: データによる新しい価値創造をゴールとするデータ分析やモデル開発を担う。
・機械学習エンジニア: サービス実装をゴールとした機械学習のモデル開発を担う。
・データエンジニア: データ活用の要となるデータ基盤開発と運用を担う。
【DX・データ利活用コンサル】データ基盤コンサルタントの求人・案件
業務委託(フリーランス)
AWSAzureGoogle Cloud Platform
アプリケーションエンジニアPMPMOコンサル
作業内容 企業のデータ資産価値の向上のため、戦略立案・組織設計、先端技術導入シナリオ策定の課題に対して、コンサルタントとしてクライアント支援。
相対する組織(IT戦略部門、横断分析部門、デジタル推進部門)を中心に、ヒアリング、ステークホルダーコミュニケーション、適切な技術的指針のリードを行う。
プロジェクトのゴール設定、分析、要求/スケジュールコントロールを行い、適切な専門家(エンジニア、アナリスト、データサイエンティスト)との協働をアレンジし、以下を例とする各種チャレンジについて推進していただきます。
・クラウドアダプションにおける構想策定
・組織戦略、スキルセットとトレーニングシステムの設計
・データ連携基盤のアーキテクチャ設計と開発規約作成
・開発ベンダーへの要求管理と全体設計支援
・CDPを中心としたデジタル戦略プラットフォームの導入(要件定義、構築リード)
・データ連携基盤とBI基盤リプレイスと顧客内運用チームの立ち上げ支援
・全社、グループ会社含むリファレンスアーキテクチャの設計
【ポジションの魅力】
国内ではほぼ実績のない課題に取り組むことが前提となるため、専門スキルを持つフリーランスやCTOレベルの独立系個人事業主など、その道の高いレベルの人材が集っています。
ハイスキルエンジニア、コンサルタントとの自由な交流の機会があり、個々人がそれぞれの関わり方でプロジェクトに随時参画しています。(プロジェクトの種類に応じ、社内外の多様なスキルセットの人材でタッグを組み取り組んでいます)
【エンドクライアント】
・最大手カタログアパレル通販などの小売業が多いです。
【Python/.機械学習】機械学習、データサイエンスにおけるモデルの開発
業務委託(フリーランス)
PythonAWSDockerGitGoogle Cloud Platform
データサイエンティスト
作業内容 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。
自社で持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。
以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。
【業務例1】図面に対する画像認識システムの構築
図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。
・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ
・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用
・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り
・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明
・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義
・高いモデル精度を保証するための実験、分析、可視化
【業務例2】サプライチェーンにおけるデータ分析
加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。
それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。
・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築
・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード
・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発
・実データのクレンジング、構造化、説明可能性の高いモデルの構築
・製造業に関わる外部変数の収集、分析
【業務例3】:調達フローにおける最適化アルゴリズムの適用
自社で持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。
・自社で持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築
・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化
・顧客からの課題のヒアリング、タスク定義とシステム開発
・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化
・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進
大注目AI企業におけるMLOpsエンジニア!【週5日/データサイエンス/Terraform/Python】累計資金調達80億円を突破(jd01687)
業務委託(フリーランス)
JavaPythonSQLScalaVCAWSGoogle Cloud PlatformTypeScriptVue.jsfirebaseTerraformKubernetes
作業内容 ■業務内容
弊社では、当社の提供する各種サービスをひとつのIDで使用できる統合管理システムを運用しております。
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。
当社のデータエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。
<具体的な業務内容>
・データプラットフォームの企画およびアーキテクチャ設計
・データパイプラインの設計・構築
・データ分析のためのBIの開発・運用
・継続的なモニタリングプロセスの構築・運用
・データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
・顧客データ活用の実態やドメイン知識の理解
・CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等
■働き方
各個人が1番パフォーマンスを発揮できる場所・時間で働くことを正義としているため、リモートワークなど柔軟性をもって働くことが可能です。
■チーム編成
現在R&D部門は約5名体制で開発に取り組んでおります。
今後R&D部門で約3名の採用予定です。
■求める人物像
・労役をなくし創造的な仕事に集中できる世界を実現するという Mission に共感できる方
・1日でも早い Mission の実現に向け、スピード感とプロ意識を持って働ける方
・世界に広げるべき徹底した効率化を常に模索し続けられる方
・やるべきと決めたことを即実行できる方
・「できない」を「できる」に変えられるアイデアを出し続け、実行できる方
・問題に対して手段にこだわらず柔軟に取り組める方
・リモートワークでのコミュニケーションや業務遂行に支障がない方
■ポジションの魅力
・PoC プロジェクトに留まらない、自社プロダクトのグロースに直接的かつ継続的に貢献できます
・自社が保有する AI 技術を駆使したプロダクトが順調にグロースしており、PoC プロジェクトが上手くいかずにそのままプロジェクトが終わるということは起こりません
・自社AIシステムの実現に向けて遠大な研究計画ロードマップを有しており、AI エンジニア・リサーチャーにとって興味深いプロジェクトに参画できます
・ストックオプション付与の可能性があります
・リモートワークが可能です
・国内SaaS企業の中でトップクラスの成長率を誇り、ユニコーン規模の上場を狙えるポジションで直近の上場を見据えています
・国内外問わず各分野のトップクラスのメンバーで構成された少数精鋭の組織のため、意思決定のスピードが早く、経営層と近い距離感で勤務いただけます
■会社概要
弊社は、世界中の全ての人が自分自身のパーソナル人工知能を持つことによって、労働(Lavoro)から解放され、創造的でアーティスティックな営み(Opera)に没頭することができる世界を実現するための研究開発を行っています。
自社AIシステム.(パーソナル人工知能)とは私たち自身の意思をデジタル化し、それをクラウド上に配置してあらゆるデジタル作業をそのクローンにさせることを目的としたAIです。
個人の意思・決断までも行えるデジタルクローンが、24時間365日ネットワーク世界を飛び回り、仕事や買い物、旅行の手配など自分が行わなくてもよい作業を代替することで、人間が人間にしかできないことに集中することが可能になります。
■事業内容
自社AIシステムの研究から生まれた高度なAI要素技術群を活用し、現在6000社以上の企業に導入が進んでいる会議自動文字起こしツールを中心に、24時間365日無人対応が可能なAIコールセンターツール、チャットオペレーターAIサポートシステム、オンライン会議での多言語コミュニケーションを可能にするツールなど、あらゆるビジネスに活用可能なAIソリューションを展開し、ローンチから約2年で国内トップシェアまで成長しました。
,【Python/Javaなど】SNS領域のデータサイエンティストの求人・案件
業務委託(フリーランス)
JavaPythonScalaAWSApacheGoogle Cloud PlatformRedshiftTableauSnowflakeAthenaPyTorchTensorFlow
データサイエンティストサーバーサイドエンジニア
作業内容 【概要】
・SNS等の投稿データやアカウントデータを分析して市場調査・分析
(中期でLLMモデルが必要と想定している)
・機械学習等のモデル:AI等を通して、他のアンケートと出ている情報を比較して、データの正確性の評価
【ポジション】
・データサイエンティスト
・データエンジニア
ゲームサービス事業 データ分析
PythonRubySQLLinuxAWSGoogle Cloud Platform
作業内容 ・ゲームサービス事業へのデータ分析・活用をリードしていくチームの一員として、35タイトル以上のソーシャルゲームのデータを処理する、社内向け分析システムの運用業務を担当していただきます。
<<具体的には・・・≫
・新規タイトルの売上分析のための社内向け分析システム
・運用タイトルのデータ分析を行うためのシステム運用
・データ基盤を活用した社内向け分析システム運用
・データサイエンティストが開発した分析手法を、
社内ユーザーに提供できる(Web)サービスの運用
・新規開発の社内向けシステムのドキュメント作成
・現在開発中のシステムを、社内へ円滑へ導入を行うため
の手順書等ドキュメント作成業務
データ分析およびモデリング
業務委託(フリーランス)
PythonSQLGoogle Cloud Platform
データサイエンティスト
作業内容 ・データ加工
・基礎分析
・ユーザークラスタリング
・ロイヤルユーザー要因分析
・CTR予測モデルの作成
・クリック予測モデルの作成
・施策提案
・実環境(GCP)の導入
【Python+SQL/リモート併用】GCP環境データ分析基盤の構築
業務委託(フリーランス)
PythonSQLGoogle Cloud Platform
データサイエンティスト
作業内容 ・クライアントシステムの開発(不動産業界)
【AWS/GCP】Hadoop環境クラウド移行案件
派遣
HadoopSparkAWSApacheGoogle Cloud Platform
データサイエンティストデータベースエンジニア
作業内容 ・オンプレミスのHadoop環境をクラウドに移行する作業に携わっていただきます。
・下記を行っていただきます。
-オンプレミスのHadoop環境からクラウド(AWSまたはGCP)への移行作業
-現行環境の調査、ソリューション選定、移行計画、環境構築、移行
-段階的な移行の推進
※本年度は500TBほどの領域をクラウドに移行し、次年度以降は数PBの領域を移行予定