【Python】トレーサビリティ構築案件
作業内容 ・トレーサビリティ構築に携わっていただきます。
・複数システムからの部品の所在データのIF、DWH・Data Martの実装、テスト、リリース作業をご担当いただきます。
・基本設計以降のフェーズをご対応いただきます。
・開発環境は下記になります。
Databricks, Azure, Apache Spark
【AWS/フルリモート可能】エンドユーザー向けAWS ETL環境の設計レビュー・改善・実装・メンテナンスの案件・求人
業務委託(フリーランス)
MySQLDynamoDBSparkAWSApacheGitHubRedshift
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
既存のAWS ETL環境の調査改善
・メンテ作業の手順化、運用作業(テーブル追加、カラム変更程度)
※対象環境は、ミッションクリティカルではないデータ処理基盤となる上位にて他PJへのスライド案件も御紹介可能で御座います。
【AWS/MySQL/リモート併用】ETL環境の設計レビュー・改善・実装・メンテナンスの案件・求人
業務委託(フリーランス)
MySQLDynamoDBSparkAWSApacheRedshiftGlue
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
・既存のAWSETL環境の調査改善・メンテ作業の手順化および運用作業(テーブル追加やカラム変更程度)※対象環境はミッションクリティカルではないデータ処理基盤となる
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Python/テレワーク】データエンジニア
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
作業内容 NTTドコモが提供するスーパー販促プログラムにおいて、加盟店(飲食店、小売等)が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)のデータ関連の開発および、顧客企業との仕様調整・実現性検討
NoSQL 総合電機メーカーのビッグデータ蓄積/抽出/分析
PythonSQLDynamoDBSparkAWSApacheGraphQL
作業内容 総合電機メーカー様のビッグデータ蓄積/抽出/分析案件になります。
蓄積された種々の構造化/非構造化データを利活用するために下記をご担当いただきます。
・No SQL Databaseに格納
・データ抽出設計
・抽出用 API 作成
<技術要素>
AWS S3, Apache Spark, SparkSQL, Databricks, AWS AppSync(GraphQL), Python(S3に蓄積されたデータをDatabricks 経由でDynamoDBに送り、AppSyncでAPI展開するイメージ)
<担当工程>
データ抽出設計 ~ API 実装 ~ テスト
<服装>
オフィスカジュアル
【Objective-C/Swift】Bigqueryデータ移行案件
業務委託(フリーランス)
Objective-CMySQLSparkAWSSwiftGoogle Cloud PlatformBigQueryHive
ネットワークエンジニアスマホアプリエンジニア
作業内容 ・AWSのデータレイクからBigqueryへのデータ移行をおこなっていただきます。
・下記を行っていただきます。
-GCPデータ基盤の整備
-ワークフローエンジン導入
【データ分析(フルリモート)】データエンジニア★フルスタック歓迎★
業務委託(フリーランス)
HadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティストフルスタックエンジニア
作業内容 ★フルスタックエンジニア歓迎★
①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【Azure】機能障害・不足の解消案件
業務委託(フリーランス)
SparkAzureApache
作業内容 ・機能障害、不足の解消作業に携わっていただきます。
・主な作業内容は以下の通りです。
-性能障害の対応含む(最近、クラウド処理遅延等の調査等)新機能への対応
※IoT対応、ログ伝送対応など
-データの品質管理
-データの取込対応
【データ分析】データエンジニア
業務委託(フリーランス)
HadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティスト
作業内容 案件内容:
①某大手通信会社販促システム開発
②某大手小売・流通のシステム開発
③広告や社内プロダクトの開発
上記いずれかにおいてデータエンジニア業務に従事いただきます。
【SQL/Python】システム開発データエンジニア案件
業務委託(フリーランス)
PythonSQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 ・データエンジニアとして、下記のいずれかをご対応いただきます。
‐通信会社販促システム開発
‐小売/流通のシステム開発
‐広告や社内プロダクトの開発
【週5日・首都圏限定】外資系生命保険会社システム開発(Azure)
業務委託(フリーランス) / 契約社員
SQLSparkAzureApache
SE
作業内容 外資系生命保険会社システム開発(Azure)
新規プロジェクトの中で、azure環境での開発を実施。
要件定義、基本設計を実施する。
本案件は【首都圏】にお住まいで【週5日勤務】が可能な方限定となります。
【Python/基本リモート/週5日】通信事業者向けゼロタッチオペレーション開発支援
業務委託(フリーランス)
Python
サーバーサイドエンジニアバックエンドエンジニア
作業内容 要件定義,基本設計,詳細設計,実装,テスト,運用・保守
データ蓄積基盤の開発
下記いずれかに該当する方を求めています。
・Java/Scala/Pythonの開発経験
・Scala/Sparkジョブ or AWS Kinesisによるストリーミング処理開発経験
・OSS(Kafka,Spark,Haddp,Flink)などを利用したストリーミング処理開発経験
・Pandasライブライを用いた開発経験
・DataPipeline構築経験(ETL開発経験)
・AWS上でのシステム開発経験3年以上
・Lambda、Glue Streaming job、DynamoDB、Redshift、RDSなどのマネージドサービス利用
・ServerlessFrameworkやCloudFormationを用いたリソース管理
・RDB/DWHの設計、パフォーマンスチューニングを行った経験
・アジャイルでのシステム開発経験
・JIRA/Confluence/Backlogなどを利用した開発経験
【業務委託】【有名王道ファンタジーRPG】SPARK GEARエフェクト制作案件
作業内容 ゲーム内の特殊効果、バトルエフェクトやスキルのエフェクトなど、
様々な演出の制作に携わって頂きます。
有名版権物RPGや新規開発中タイトルなど 、
ご参画のタイミングによりお任せするタイトルは変わります。
【Python / 20代30代活躍中】大手自動車メーカー向けAI関連システム開発
業務委託(フリーランス)
PythonHadoopDjangoSparkAWS
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
案件内容 :運送会社向けにドライバーの運行情報を解析するアプリ開発をPoCを回しながら行っております。
デジタルタコグラフから取得した大量の運行情報をAWS環境上で蓄積し、
Djangoにて解析を行うシステムの開発を担当していただきます。
勤務時間 :9:00~18:00(予定)
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
AWS / Docker 地図広告P/Fのインフラ設計、開発、テスト
業務委託(フリーランス)
PythonNode.jsSparkAWSDocker
作業内容 新規プロダクトである地図広告P/Fのインフラ設計、開発、テストを推進していただきます。
AWS上でのデータ処理やクエリーワークロードの設計、デプロイ、監視のためのMapboxのプロセスとツールの簡素化と強化が主要業務となります。
開発、営業、その他チームとの連携も重要となります。
<工程>
設計、開発、テスト
<備考>
フルリモート
<基本時間>
10:00~19:00
【Python】自社SaasソリューションのtoBプロジェクトにおけるデータエンジニア
業務委託(フリーランス)
JavaPythonSQLHadoopSparkAWSAzureApacheGoogle Cloud Platform
バックエンドエンジニア
作業内容 【募集背景】
大手顧客を中心に幅広い業界の企業へ、自社Saasソリューションを提供している同社。
プロジェクトが並行している中で、データエンジニアのリソース不足のため募集。
【業務内容】
自社Saasソリューションを提供されている大手通信系クライアント様とのPJにおいて
加盟店が利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発。
【Django / 20代30代活躍中】大手自動車メーカー向けAI関連システム開発
業務委託(フリーランス)
HadoopDjangoSparkAWS
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
案件内容 :運送会社向けにドライバーの運行情報を解析するアプリ開発をPoCを回しながら行っております。
デジタルタコグラフから取得した大量の運行情報をAWS環境上で蓄積し、
Djangoにて解析を行うシステムの開発を担当していただきます。
勤務時間 :9:00~18:00(予定)
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
Hadoop / AWS データ分析基盤の運用改善
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を求めております。
データ基盤以外のインフラ全般を担当するメンバーと連携し、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
ご希望の場合はオンサイトも可能
【Python/SQL/フルリモート】Saasプロダクトデータ基盤構築案件
業務委託(フリーランス)
C++PythonSQLSparkAWSDockerJIRAGitHub
作業内容 ・在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
・数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【AWS】Sagemaker構築運用
業務委託(フリーランス)
SparkAWSGlueKubernetes
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
■概要
AWS環境でSagemaker構築および運用を実施していただきます。
■作業場所:東西線木場駅(初期設定後はリモートを予定)
■精算条件:固定
■打ち合わせ回数:2
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
【Python】Lob分析サービス開発運用
業務委託(フリーランス)
PythonRedisHadoopSparkAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 【概要】
TVなどの操作Logをもとにランキングなどを出力するサービスの開発
【開発環境】
Python
React.js
DynamoDB
AWS(Athena、lambda、APIGatewayなどの各種サービス)
【主に行う業務】
AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発を行っていただきます。
【求める人物像】
・勤怠/健康状態に問題がなく、中長期的に業務に携わっていける方
・コミュニケーション能力のある方
・ハウスルールなど遵守しつつ業務を遂行できる真面目で責任感のある方
【作業工程】
開発、構築~
【場所】
大崎駅※フルリモート
【勤務時間】
9:00~18:00
【精算】
140h~180h(スキル見合い)
【面談】
2回
【備考】
・服装:ビジネスカジュアル
※週5日〜OKの案件です!
【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
★本案件の最新の状況は、担当者までお問合せ下さい。
★期間:随時~
地図広告プラットフォーム開発
※20代〜30代が中心で活気ある雰囲気です。
※成長意欲が高く、スキルを急速に伸ばしたい方に最適
※将来リーダーを目指す方歓迎
【AWS】鉄道会社向けアプリ開発
業務委託(フリーランス)
Node.jsSparkAWSLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【作業内容】
鉄道会社向けアプリ開発をご担当いただきます。
・AWSを利用したアプリの改修、小規模開発、運用保守。
-Lambda,S3,RDSなど各種AWSサービスを利用したアプリの機能の改修、小規模開発。
(サーバーサイドはNode.jsがメイン)
-不具合、障害対応
-パフォーマンス改善
-脆弱性診断(定期的に実施)
-セキュリティ対応
【場所】
リモート可/大正
立ち上がりは出社となります。
【精算】
140-180h
【面談】
1回
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
New【Python/SQL】データ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【業務内容】
在庫管理システムを支えるデータ基盤の構築案件となります。
主に、機能改善及び機能追加をご担当頂き、大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
★元請直/リモート/AWS+EMR データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
【Java】IoT基盤関連API開発案件
業務委託(フリーランス)
JavaPostgreSQLSparkDocker
作業内容 ・Javaを用いたシステム開発案件に携わっていただきます。
・主に下記業務をご担当いただきます。
-基本設計以降の実務開発業務
-API開発
【Python / ~40歳まで】大手自動車メーカー向けAI関連システム開発要員募集
業務委託(フリーランス)
PythonHadoopDjangoSparkAWS
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
案件内容 :運送会社向けにドライバーの運行情報を解析するアプリ開発をPoCを回しながら行っております。
デジタルタコグラフから取得した大量の運行情報をAWS環境上で蓄積し、
Djangoにて解析を行うシステムの開発を担当していただきます。
勤務場所 :リモート ※月1~2回出社(品川)
勤務時間 :9:00~18:00(予定)
勤務期間 :即日~※長期
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
【Python】大手自動車メーカー向けAI関連システム開発
業務委託(フリーランス)
PythonDjango
サーバーサイドエンジニア
作業内容 運送会社向けにドライバーの運行情報を解析するアプリ開発をPoCを回しながら行っております。
デジタルタコグラフから取得した大量の運行情報をAWS環境上で蓄積し、
Python(Django)にて解析を行うシステムを開発する。
※PoC(Proof of Concept:概念実証):新たなアイデアやコンセプトの実現可能性やそれによって得られる効果などについて検証すること。
※Django(ジャンゴ):Pythonで実装されたWebアプリケーションフレームワーク。
【DWH/ETLなど】内製開発:ETLチームの求人・案件
業務委託(フリーランス)
MySQLMongoDBSparkAWSApacheJIRARedshiftKafkaLambda
作業内容 ・SEからのインプットを基に詳細設計
・ETLコーディング
・ワークフローシナリオ実装
・UT観点項目作成
・UTスクリプト作成
・UT実施
・必要に応じてシミュレーター/スタブ開発
【AWS/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonNode.jsSparkAWSDocker
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
新規プロダクトである地図広告P/Fのインフラ設計、開発、テストを推進していただきます。
AWS上でのデータ処理やクエリーワークロードの設計、デプロイ、
監視のためのMapboxのプロセスとツールの簡素化と強化が主要業務となります。
開発、営業、その他チームとの連携も重要となります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【AWS(リモート)】電力データ活用基盤移行に伴うインフラ基盤設計/構築支援
業務委託(フリーランス)
HadoopSparkAWS
作業内容 ・詳細設計書の執筆
・パラメータシート作成
・検証環境の構築
・基盤の構築作業
・単体/結合試験項目書の作成、テストの実施
・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます
【Golang(リモート)】データ分析基盤及びETL基盤/システム開発支援
業務委託(フリーランス)
GoLinuxMySQLPostgreSQLRedisCassandraSparkGitJIRAGoogle Cloud PlatformKubernetesElasticsearch
作業内容 ・システムアーキテクチャの検討、選定及び設計、実装
・ビッグデータを分析(加工)する為の分散処理基盤の開発など
【環境】
・OS(インフラ):GCP、Spark、Kubernetes、Linux
・DB:Cassandra、Redis、Elasticsearch、mySQL、PostgreSQL
・ツール:JIRA、Git、Slack
【Python】大手自動車部品メーカー向けwebアプリケーション開発
業務委託(フリーランス)
Python
サーバーサイドエンジニア
作業内容 自動車の走行距離のデータをPythonにて解析するwebアプリケーション開発を担当していただきます。
【Azure】クラウドエンジニアの求人・案件
業務委託(フリーランス)
HadoopAzure
インフラエンジニア
作業内容 在庫管理等の分散処理システムをHadoop on Sparkで組んでおりDMCから逆輸入による導入
【PM】データAIプラットフォーム推進案件
業務委託(フリーランス)
SparkAzure
データサイエンティストPM
作業内容 ・データAIプラットフォーム推進案件にPMとしてご参画いただきます。
・主に下記作業をご担当いただきます。
-プロジェクトマネジメント業務
-提案業務
【AWS(リモート)】電力データ活用基盤移行に伴うインフラ基盤設計/構築支援
業務委託(フリーランス)
HadoopSparkAWS
作業内容 ・詳細設計書の執筆
・パラメータシート作成
・検証環境の構築
・基盤の構築作業
・単体/結合試験項目書の作成、テストの実施
・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます
【AWS(リモート)】電力データ活用基盤移行に伴うインフラ基盤設計/構築支援
業務委託(フリーランス)
HadoopSparkAWS
インフラエンジニア
作業内容 ・詳細設計書の執筆
・パラメータシート作成
・検証環境の構築
・基盤の構築作業
・単体/結合試験項目書の作成、テストの実施
・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます
【SQLなど】大規模会計サービス運営企業/アナリティクスエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLDockerGitBacklogJIRAGitHubTerraform
作業内容 ・DWH層テーブルの要件定義・設計・開発・保守
- 関係者からのヒアリング・データ調査
- メンテナンス性・汎用性を意識したテーブルの設計
- SQLおよびPySparkを用いた実装
・DWH層テーブルについての問い合わせ対応・不具合調査
・DWH層開発環境の設計・開発・保守・運用
[案件例]
・売上集計用DWH
・機能利用状況DWH
■開発環境
言語____:SQL,Python,ShellScript
FW____:Apache Spark
環境・OS_:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール___:Docker,Terraform,digdag,JIRA,Github
AWS / Python IoTデータ分析基盤の設計・構築・テスト
作業内容 AWS上に、IoTデータを集積したレイクハウスを設計・構築いたします。
AWS Glue、StepFunctionsによる設計・構築・テストが依頼範囲となります。
データ規模が大きいシステムのため、AWS GlueやSparkの技術に明るく、性能面、コスト面から最適化のアプローチができる方を募集しております。
<基本時間>
10:00~19:00
【SQLなど】大規模会計サービス/アナリティクスエンジニアの求人・案件
業務委託(フリーランス)
PythonSQLDockerGitBacklogJIRAGitHubTerraform
作業内容 【仕事内容】
・DWH層テーブルの要件定義・設計・開発・保守
関係者からのヒアリング・データ調査メンテナンス性・汎用性を意識したテーブルの設計SQLおよびPySparkを用いた実装 ・DWH層テーブルについての問い合わせ対応・不具合調査 ・DWH層開発環境の設計・開発・保守・運用 【開発工程】 基本設計|詳細設計|実装・構築・単体試験|運用・保守
【環境】
言語:SQL,Python
FW:Apache Spark
環境・OS:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール:Docker,Terraform,JIRA,Github