【週5日/一部リモート/Python,SQL】データエンジニア
業務委託(フリーランス)
PythonSQLAWSAzureApacheGoogle Cloud PlatformSnowflakeKafka
作業内容 --------------------------------
※「エンジニアとしての実務経験3年以上」「必須要件に記載されている言語の実務経験が2年以上」の方が対象の案件です
※外国籍の方は、「日本語能力検定1級」「日本語が母国語の方」の方が対象です
--------------------------------
「アルゴリズムで、社会はもっとシンプルになる。」をミッションに掲げ、
アルゴリズムを用いて事業開発を行うAIスタートアップです。
【募集背景】
ChatGPTをはじめとする大規模モデルと隆盛により、データ活用の社会的ニーズが高まってきております。
特に、弊社では金融業界でのデータ活用に向けた取り組みを進めており、技術的には、セキュリティや大規模なデータを扱うことを考えて、モダンなデータスタックの導入ができるように社内での検証を進めてきており、
今回大型のプロジェクトを実行するため、技術ケイパビリティ・経験を持ったエンジニアを今回募集しております。
【業務内容】
メインとして顧客環境に、特にMicrosoft Azureを想定としたデータ基盤を構築し、運用できるようにして頂きます。
データの収集元はテキストデータを中心に多岐に渡る想定であり、収集したデータはLLM/RAGと言われる技術を活用し、ChatGPTのようなボットの活用を行い、問い合わせの自動対応を実現することが目的です。
また、セキュリティ的を十分に考慮しながら設計できることが必要であり、業務としてはデータの基盤の設計及び実行のマネジメントも含めて実行頂きます。
また、必要に応じてクライアントコミュニケーションも行って頂くこともございます。
大型プロジェクトのデータエンジニアとしてのご参画を想定しております。
- アーキテクチャの設計 (既存にAzure上に一定構成されたものは存在)
- プロジェクトの技術面での実行
- 顧客環境 (特にMicrosoft Azureを想定)にデータ基盤を構築し運用できるようにする。データの収集元は多岐に渡る想定。
- データ基盤の活用の支援 (BIツール等のデータ基盤の活用に関する助言。場合によっては活用基盤の構築)
- 実行メンバーを採用及びメンバーの実行マネジメントの検討・実行
- クライアントコミュニケーション
- 他データ基盤のプロジェクトへのアドバイス
- アーキテクチャレビュー
【Python/.機械学習】機械学習、データサイエンスにおけるモデルの開発
業務委託(フリーランス)
PythonAWSDockerGitGoogle Cloud Platform
データサイエンティスト
作業内容 Machine Learning Engineerは、機械学習、データサイエンスにおけるモデルの開発および、それらを継続的にサービスに対して提供できる基盤の構築、保守、運用を行います。
自社で持つデータを活用し、プロダクトに価値を提供できる高い精度でのモデリング技術、およびチームでの安定したシステム開発を期待します。
以下に業務例を示します。実際の業務はこれに限定されるものではありません。入社後の業務内容は、技術や専門知識、経験等を考慮のうえ決定します。
【業務例1】図面に対する画像認識システムの構築
図面画像を解析し、図面上に記載された情報を抽出する技術開発を行います。
・図面上の情報抽出を行うバッチ処理、APIの開発、CI/CDを用いたデプロイ
・画像からの特徴抽出、それらを用いた類似画像検索システムの構築、保守、運用
・Deep Learningを用いた図面の分類モデルの構築、アノテーションの仕組み作り
・作成した画像認識モデルのデモやレポートの作成および社内外への技術説明
・図面情報に関する課題の社内外からのヒアリングおよび要件を満たせるタスク定義
・高いモデル精度を保証するための実験、分析、可視化
【業務例2】サプライチェーンにおけるデータ分析
加工会社の推薦や生産管理、物流拠点での受け入れなどのサプライチェーン構築、マネジメントを行っています。
それらのデータを解析し、コスト削減やエコノミクス改善のための仮説立て、データ解析、仮説検証を行います。
・オペレーションの観察、ステークホルダーとの議論等を通じた課題設定と仮説構築
・社内および顧客企業と連携した、データ収集、パイプライン構築、分析基盤構築のリード
・需要予測、在庫最適化等を目的とするデータ分析、最適化手法の開発
・実データのクレンジング、構造化、説明可能性の高いモデルの構築
・製造業に関わる外部変数の収集、分析
【業務例3】:調達フローにおける最適化アルゴリズムの適用
自社で持つ流通、調達のフローや、実際のサプライパートナーの現場に対して、最適化アルゴリズムを適用し、コスト削減や業務の効率化を行います。
・自社で持つ製造拠点内の業務フローのデータ化、収集、分析のための基盤構築
・画像解析技術やデータ分析、異常検知等の技術を用いた拠点業務の自動化
・顧客からの課題のヒアリング、タスク定義とシステム開発
・ヒューリスティクス、数理計画、機械学習などの複合的なアプローチを用いた調達フロー最適化
・IoTデバイスを用いた拠点や工場内のデータの収集、および活用プロジェクトの立案、推進
【データ分析 / フルリモート】某ゲーム会社様にて運用中のデータ分析基盤(Redshift)のGoogle Cloud環境への移行作業(週4日以上)
JavaHadoopSparkAWSApacheJP1RedshiftTerraform
作業内容 GCP
【SPARK GEAR】新規/運用スマートフォンゲームエフェクト制作案件
作業内容 スマートフォンゲーム制作においてバトル中や演出時のエフェクト制作をご担当いただきます。
具体的な作業内容は下記を想定しております。
・キャラクターのバトル中の演出時エフェクトの制作
・スキルや必殺技のエフェクト制作
【Unity/After Effects】【大手企業新規/運用ソーシャルゲーム】エフェクト制作案件
SparkUnityAfter EffectsBISHAMON
作業内容 ソーシャルゲーム開発において、After EffectsやUnity等を使用した
エフェクト制作を行っていただきます。
具体的には下記作業を想定しています。
・バトル・必殺技エフェクト、背景・環境エフェクト制作
【派遣】【少年漫画IP新規開発ソーシャルゲーム向け】3Dエフェクト制作案件
派遣
MayaUnity3ds Max
3Dデザイナーエフェクトデザイナーグラフィックデザイナー
作業内容 新規開発中の少年漫画IPを使用したソーシャルゲームにおいて
3Dエフェクトデザイナーとして作業をお任せいたします。
具体的には下記作業を想定しております。
・SPARK GEAR、Shuriken等のツールでの炎・爆発・魔法の表現、演出効果エフェクト制作
・エフェクトに関する表現手法の研究並びに検証
BtoB(AI診断)サービス開発プロジェクト
PythonCSSHTMLHadoopDjangoSparkAWS
フロントエンドエンジニアPMPMOコンサルデザイナー
作業内容 BtoB(AI診断)サービス開発プロジェクト。PoCフェーズからサービス提供フェーズへの移行に伴い増員を検討開始。
【役割】①開発PMO、PM:1名②Pythonエンジニア(フロントエンド開発):2名③フロントエンドデザイナー/PM:1名④クラウドエンジニア(AWS):1名⑤新規ビジネス企画、推進:若干名
【Kotllin】求人検索エンジンでのサーバサイド開発案件
作業内容 ・ソフトウェアエンジニアとして、求人検索エンジンのプロダクト開発をお任せいたします。
・求人検索エンジンでは、検索サービスを始め、求人情報のクローリング機能、広告
配信機能、求人企業による求人票作成機能等、多くの構成要素が存在します。
・今回は、求人情報のクローリング機能開発をを中心としたグループにジョイン頂き、
グループの持つ裁量の中で要件定義~開発~リリースと運用まで、幅広く主体的
に担当頂くことが可能です。
◆開発環境
サーバーサイド:Scala, Play Framework, ZIO, Spark, Flink
プロビジョニング:Terraform, Ansible
フロントエンド:JS, TypeScript, Vue.js
監視:DataDog, Kibana
クラウドサービス:AWS, GCP
分析基盤:fluentd, BigQuery, Athena, Google Data Studio, Redash
AWS:ECS, Fargate, Kinesis Data Stream, Lambda, EMR, RDS, Aurora, S3, CloudFront, ElastiCache
開発ツール:Github, Slack, Intellij IDEA, Jenkins, JIRA, SlackBot
仮想化基盤:Docker
その他使用言語:Python, Go
ミドルウェア:Elasticsearch, nginx, MySQL, ClickHouse
【Kotllin】求人検索エンジンでのサーバサイド開発案件
作業内容 ・ソフトウェアエンジニアとして、求人検索エンジンのプロダクト開発をお任せいたします。
・求人検索エンジンでは、検索サービスを始め、求人情報のクローリング機能、広告
配信機能、求人企業による求人票作成機能等、多くの構成要素が存在します。
・今回は、求人情報のクローリング機能開発をを中心としたグループにジョイン頂き、
グループの持つ裁量の中で要件定義~開発~リリースと運用まで、幅広く主体的
に担当頂くことが可能です。
◆開発環境
サーバーサイド:Scala, Play Framework, ZIO, Spark, Flink
プロビジョニング:Terraform, Ansible
フロントエンド:JS, TypeScript, Vue.js
監視:DataDog, Kibana
クラウドサービス:AWS, GCP
分析基盤:fluentd, BigQuery, Athena, Google Data Studio, Redash
AWS:ECS, Fargate, Kinesis Data Stream, Lambda, EMR, RDS, Aurora, S3, CloudFront, ElastiCache
開発ツール:Github, Slack, Intellij IDEA, Jenkins, JIRA, SlackBot
仮想化基盤:Docker
その他使用言語:Python, Go
ミドルウェア:Elasticsearch, nginx, MySQL, ClickHouse
【Java/リモート】通信会社システム開発
業務委託(フリーランス)
JavaSparkApache
作業内容 ・通信会社の情報系のシステムをApache Sparkを使って開発
【3Dエフェクトデザイナー/リモート】スマホゲーム
業務委託(フリーランス)
SparkUnity
エフェクトデザイナー
作業内容 SPARK GEAR、Unityを使用して、スマートフォンのバトル用スキルエフェクトや、マップの環境エフェクトなどの作成をご担当
【Java/AWS/SQL】ビッグデータの求人・案件
業務委託(フリーランス)
JavaSQLSparkAWS
作業内容 製造~テストをご担当いただきます(設計もお任せする可能性あり)
【Python/リモート】分析基盤システム開発支援
作業内容 小売業向けの基盤システム開発
【SQL/リモート】既存のデータパイプラインの保守
作業内容 ・新規パイプラインの設計・構築(Sparkを想定)
・BIツールを活用した既存ダッシュボードの保守、新規ダッシュボード構築
【Java】大規模データ構造化サービス開発案件
派遣
JavaPythonSQLLinuxHadoopSparkKotlinGoogle Cloud PlatformHive
作業内容 ・Java、Pythonを用いたアプリケーション開発に携わっていただきます。
・主に以下業務をご担当いただきます
-設計から開発テスト、リリース及び運用業務
-カタログデータを用いた大規模なデータの構造化サービス開発
【AWS/GCP】Hadoop環境クラウド移行案件
派遣
HadoopSparkAWSApacheGoogle Cloud Platform
データサイエンティストデータベースエンジニア
作業内容 ・オンプレミスのHadoop環境をクラウドに移行する作業に携わっていただきます。
・下記を行っていただきます。
-オンプレミスのHadoop環境からクラウド(AWSまたはGCP)への移行作業
-現行環境の調査、ソリューション選定、移行計画、環境構築、移行
-段階的な移行の推進
※本年度は500TBほどの領域をクラウドに移行し、次年度以降は数PBの領域を移行予定