CRM施策に関連するデータ加工/抽出/分析業務
PythonSQLMySQLPostgreSQLGitJIRABigQueryHive
作業内容 CRM施策に関連する、以下の業務をご担当いただきます。
■具体的には…
・メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成
→事前データ調査やユーザーリストの作成
・事業KPI設計
・成果レポート用クエリ作成
・BIツール移行対応
・施策ヒアリング等の要件定義
■開発環境
PC:Mac(JIS/US 選択可)
ミドルウェア:MySQL、PostgreSQL
管理ツール:Slack、Jira、Confluence、Git
その他:BigQuery、LookerStudio、Redash、Hive
■担当工程
要件定義、基本設計、詳細設計
保守改修、運用
※アダルトコンテンツ一部有り
レポート作成やセグメントに利用するSQLの業務では直接的に触れる形ではないが、
抽出データ内に作品タイトルなどが表示されるケースあり
【データ加工分析/フルリモート】開発グループ_SQLエンジニア募集
作業内容 案件概要:開発グループ_SQLエンジニア募集
業務内容:
CRM施策に関連するデータ加工/抽出/分析を行う業務
メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成
L事前データ調査やユーザーリストの作成
事業KPI設計
成果レポート用クエリ作成
BIツール移行対応
施策ヒアリング等の要件定義
開発環境:
PC:Mac(JIS/US 選択可)
ミドルウェア:MySQL、PostgreSQL
管理ツール:Slack、Jira、Confluence、Git
その他:BigQuery、LookerStudio、Redash、Hive
業務環境:
テクノロジー部全体:31名
開発グループメンバー:20名
配属先チーム:リーダー1名、メンバー7名
男女比:10:0(部全体では8割男性)
平均年齢:32歳
勤務時間:10:00~19:00
場所:六本木一丁目(基本リモート)
※地方相談可
※初日はガイダンスの為、出社いただきます
備考:
・アダルトコンテンツ:一部あり
・弊社より20名ほど参画中のエンドクライアントです
外国籍:応相談 ビジネスレベル、日本在住の方のみ
Python データアナリスト募集
PythonSQLJIRAGitHubBigQueryTableauGoogle AnalyticsCircleCI
データアナリスト
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
【役割】
事業のPDCAにおける、Check-分析の効率性/スピードと質を向上させ、かつ次のアクションに繋がるインサイトを提供すること
■ 分析基盤整備
・ダッシュボードの作成(KPIツリー、目的別ボード)
・ユーザー行動の可視化(推移、利用特性)
・分析基盤整備の推進(データ取得の推進、課題点洗い出し)
■ 分析
・データを用いた仮説検証(機能、UI改善、施策)
・ユーザー行動(数値化、可視化、セグメント分類)
・効果検証(広告、キャンペーン、メールマガジン等)
・得られたデータを元にしたインサイトの提供
【働く環境】
・海外や多地点との協働
・メインが日本語で、英語は読み書きが頻出 ※スキルに応じ英会話等も利用の可能性あり
【使用ツール】
開発言語
・Go
インフラ環境
・Google Cloud
・Cloud Spanner
・Cloud Function
・Cloud Run
・BigQuery
ソースコード管理:GitHub
CI/CD: CircleCI, Cloud Build
監視・モニタリング: Google Cloud Logging, Google Cloud Monitoring
インシデント管理: PagerDuty
コミュニケーション: Slack, Google Meet
プロジェクト管理、ドキュメント: JIRA/Confluence/DocBase
【SQLなど】サービス内(App/Web)におけるユーザーの活動分析の求人・案件
業務委託(フリーランス)
PythonSQLRHadoopRedshiftBigQueryTableauGoogle Analytics
作業内容 ・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細> ・分析基盤整備 └ダッシュボードの作成(KPIツリー、目的別ボード) └ユーザー行動の可視化(推移、利用特性) └分析基盤整備の推進(データ取得の推進、課題点洗い出し) ・分析 └データを用いた仮説検証(機能、UI改善、施策) └ユーザー行動(数値化、可視化、セグメント分類) └効果検証(広告、キャンペーン、メールマガジン等) └得られたデータを元にしたインサイトの提供
<使用ツール>
・開発言語:Go
・インフラ環境:Google Cloud、Cloud Spanner、Cloud Function、Cloud Run、BigQuery
・ソースコード管理:GitHub
・CI/CD:CircleCI, Cloud Build
・監視/モニタリング:Google Cloud Logging, Google Cloud Monitoring
・インシデント管理:PagerDuty
・コミュニケーション:Slack, Google Meet
・プロジェクト管理/ドキュメント:JIRA/Confluence/DocBase
【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
【BigQuery】機械学習関連DWHエンジニア募集|フルリモート|~100万
業務委託(フリーランス)
PythonSQLLinuxAWSAzureDockerBigQueryHiveSnowflakeTerraformLambda
データベースエンジニア
作業内容 機械学習を用いた予測システムの開発・運用データエンジニア(DWH)
エネルギー業界向けに機械学習を用いた予測システムの開発・運用
・多モデル予測パイプラインの設計
・監視・通知の仕組みの設計 etc..
・希望に応じて機械学習モジュールの開発も可能
【分析基盤エンジニア】データエンジニアリング業務 (HR領域)
業務委託(フリーランス)
SQLGoogle Cloud Platform
作業内容 お客様と要件を整理し分析用のデータマートを作成します。データ加工用のSQLを作成したり、データマートの設計が主な業務となります。
使用データベースはGCP/BigQueryを利用
一部のクエリは既存からの移植となり、移植元はHadoop(HIVEで接続)です。
【Python,SQL/分析基盤エンジニア】法人営業企業系 データ分析及び、システムデータ分析基盤構築支援 (分析エンジニア/分析基盤エンジニア)
業務委託(フリーランス)
PythonSQLUnixSparkAWSDockerApacheHive
作業内容 [ポジション]:分析基盤エンジニア
◇データ分析対応チーム、もしくはデータ分析基盤構築チームにて、 A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など) B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など) のいずれかをご対応いただく予定です。・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。 [稼働先最寄り]・基本リモート or 現場常駐(出社時は東京都 港区エリア) ※現状、タスクに応じて50/50で対応中 ※ご面談設定の際に、詳細情報を連携させていたます。
[募集人数]
・メンバー枠:
データ分析エンジニア : ~1名
データ分析基盤構築エンジニア: ~最大3名
【AWS/Python/リモート併用】インフラ構築の案件・求人
業務委託(フリーランス)
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・経験者採用
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・実務経験3年以上必須
=====
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム(ビッグデータ基盤担当)の案件・求人
業務委託(フリーランス)
JavaPHPPythonSQLGoAWSGit
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・経験者採用
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、システム開発エンジニア枠(ビッグデータ基盤担当)を募集しております。
<主な業務内容>
主に大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、オーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。
インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
New【Python】インフラ担当エンジニアの求人・案件
業務委託(フリーランス)
PythonAWS
インフラエンジニア
作業内容 AWSを活用したインフラ保守、構築・開発業務【案件例】
・AWSを活用したテレビ朝日案件などのインフラ保守、構築・開発の大型案件
・CMSサービスのインフラ保守運用
・物理サーバー案件(頻度:低)
・インフラ関連業務、及びその他付随業務*アサイン後はクラウドから物理環境までを扱う業務内容のいづれかをご担当いただきます。アサイン予定のチームは他の複数のチームと関わりながら業務を遂行する横断的な組織になります。
【参考】
使用サービス例AWS関連:
EC2(AmazonLinux), EBS, AutoScalingGroup, ELB各種, ECS, ECR, S3, EFS, DynamoDB, Elasticsearch Service, Aurora, RDS各種, Lambda, Athena, Kinesis, CloudFront, ACM, SNS, SQS, CloudTrail, CodeCommit, CodeBuild, CodeDeploy, Route53, DirectConnect, VPC, CloudWatch, AWS WAF, GuradDutyOSS関連:
Apache, Nginx, Redis, MySQL, PostgreSQL, Memcached, Postfix, vsftp, Zabbix, crond, OpenSSL Elasticsearch, Kibana, Fluentd, Docker, Ansible, Hadoop, HBase, Hive, Pig, ZooKeeper, Git,GitHub, Gitlab, Gitlab CI Runner, Circle CI, Redmine, WordPress, Laravel, RubyOnRails, CentOS, Debian, Vernish, Python, Perl, Javascript, PHP※一般のWEBシステムで使うようなサービスを中心に活用しております。その他:
Fastly、Twilio、Mackerel、Slack、Backlog
【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム_AWSエンジニア枠の案件・求人
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・経験者採用
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、AWSエンジニアを募集しております。
<主な業務内容>
AWSを活用したインフラ保守、構築・開発業務
<案件例>
・AWSを活用した某テレビ局社内案件などのインフラ保守、構築・開発の大型案件
・CMSサービスのインフラ保守運用
・物理サーバー案件(頻度:低)
・インフラ関連業務、及びその他付随業務
※アサイン後はクラウドから物理環境までを扱う業務内容のいづれかをご担当いただきます。
アサイン予定のチームは他の複数のチームと関わりながら業務を遂行する横断的な組織になります。
※【参考】使用サービス例
AWS関連:
EC2(AmazonLinux),EBS,AutoScalingGroup,ELB各種,ECS,ECR,S3,
EFS,DynamoDB,ElasticsearchService,Aurora,RDS各種,
Lambda,Athena,Kinesis,CloudFront,ACM,SNS,SQS,
CloudTrail,CodeCommit,CodeBuild,CodeDeploy,Route53,
DirectConnect,VPC,CloudWatch,AWSWAF,GuradDuty
OSS関連
Apache,Nginx,Redis,MySQL,PostgreSQL,Memcached,Postfix,
vsftp,Zabbix,crond,OpenSSL,Elasticsearch,Kibana,Fluentd,
Docker,Ansible,Hadoop,HBase,Hive,Pig,ZooKeeper,
Git,GitHub,Gitlab,GitlabCIRunner,CircleCI,Redmine,
WordPress,Laravel,RubyOnRails,CentOS,Debian,Vernish,
Python,Perl,Javascript,PHP
※一般のWEBシステムで使うようなサービスを中心に活用しております。
その他:
Fastly、Twilio、Mackerel、Slack、Backlog
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
募集終了【Ruby/Typescript/AWS/GCP】データマネジメントプラットフォーム開発案件
業務委託(フリーランス)
JavaScriptPythonRubyPostgreSQLRailsSparkAWSGitHubReactGoogle Cloud PlatformHiveTypeScript
作業内容 ・クライアント向けDMPの開発をご担当いただきます。
・具体的には下記の作業を想定しております。
- 機能機能要件を基に、設計、実装、テスト、リリースまでの一連の開発作業
- Railsを用いたバックエンド開発
- reactを用いたフロントエンド開発
- Hive, Presto, BigQueryを用いたデータ分析機能の開発、パフォーマンスチューニング
- 既存AWSクラウドの運用、保守、改善、機能開発
募集終了【Python/BI/リモート】エンタメサービスのユーザー行動分析
業務委託(フリーランス)
PythonSQLTableauGoogle Analytics
データサイエンティスト
作業内容 ■案 件:【データアナリスト】大手エンタメ事業 サービス内(App/Web)におけるユーザーの活動分析
■内 容:
・サービス内(App/Web)におけるユーザーの活動分析
・機能分析や、サービス内のファネル分析、ユーザー別の活動分析等の幅広な分析を実施
・データを依頼してのその直接提示というより、持つ仮説を強化あるいは反証するデータを幅広に検証したり、そこから必要な取得データや分析を提案し回答や示唆を提供する
・必要情報を取得する際の開発チームへの依頼や要件の伝達(イベントの発火組み込みや、新機能における分析必要項目のDevチームへの連絡や埋め込み依頼等)
※海外とのやり取りが発生するため英語の読み書きが頻出します(担当業務によっては英会話の必要性も有り)
<業務詳細>
・分析基盤整備
└ダッシュボードの作成(KPIツリー、目的別ボード)
└ユーザー行動の可視化(推移、利用特性)
└分析基盤整備の推進(データ取得の推進、課題点洗い出し)
・分析
└データを用いた仮説検証(機能、UI改善、施策)
└ユーザー行動(数値化、可視化、セグメント分類)
└効果検証(広告、キャンペーン、メールマガジン等)
└得られたデータを元にしたインサイトの提供
募集終了【Python】マーケティングデータ処理開発
業務委託(フリーランス)
JavaPythonRubyScalaHadoopSparkHive
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【概要】マーケティングデータ処理開発
【開発環境】
-言語:Java、Scala(一部:Python、Ruby)
【精算幅】140-180h
【面談】1回
【勤務地】リモート
【備考】
・服装:自由
・就業時間:9:00-17:30
※週5日〜OKの案件です!
募集終了【データベース】データ連携システム開発案件
業務委託(フリーランス)
SQLOracleSQL ServerHive
データベースエンジニア
作業内容 ・データ連携システム開発に携わっていただきます。
・下記を行っていただきます。
-受領データ加工処理
-後続システムへのデータ連携処理の開発
-新環境への処理移行に向けて既存処理(Oracle)の解析、新環境での検証
募集終了【AWS】テレビ視聴データ基盤分析案件
業務委託(フリーランス)
HbaseHadoopSparkAWSHive
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 システム基盤の運用改善をご担当いただきます。
募集終了【Java】統合システム開発案件
業務委託(フリーランス)
JavaApacheHive
作業内容 ・Javaを用いた統合システム開発案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-機能追加開発
-設計~テストまで
募集終了【AWS】地図広告プラットフォーム開発
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【概要】
【精算幅】140-180h
【面談】1回
【勤務地】虎ノ門※リモート
【備考】
・服装:自由
・就業時間:9:00-18:00
※週5日〜OKの案件です!
募集終了【AWS/EMR/Hadoop/フルリモート】分散DBを用いたデータ基盤のインフラエンジニア募集
HadoopSparkAWSApache
インフラエンジニア
作業内容 データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMR での Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
募集終了【AWS/EMR/Hadoop/フルリモート】分散DBを用いたデータ基盤のインフラエンジニア募集
業務委託(フリーランス)
HadoopAWSTerraform
インフラエンジニア
作業内容 データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMR での Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
募集終了AWS 分散DBを用いたデータ基盤のインフラエンジニア
HbaseSparkAWSHive
インフラエンジニア
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMRでの Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
募集終了【Objective-C/Swift】Bigqueryデータ移行案件
業務委託(フリーランス)
Objective-CMySQLSparkAWSSwiftGoogle Cloud PlatformBigQueryHive
ネットワークエンジニアスマホアプリエンジニア
作業内容 ・AWSのデータレイクからBigqueryへのデータ移行をおこなっていただきます。
・下記を行っていただきます。
-GCPデータ基盤の整備
-ワークフローエンジン導入
募集終了【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
地図広告プラットフォーム開発
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
募集終了AWS データレイク・DWH管理等
PythonSparkAWSGitGoogle Cloud PlatformBigQueryHiveGlueAthenaTerraformCircleCILambda
作業内容 動画やECサイト等、Webコンテンツを数多く提供しているサービス企業において、サービス提供の根幹となるデータレイク・DWH管理などの対応をしていただきます。
主な業務内容は以下を想定していますが、詳細についてはご面談時に説明させていただきます。
1. AWSのデータレイクからBigqueryへのデータ移行作業
2. GCPデータ基盤の整備(ワークフローエンジン導入等)
→2番の作業関しては、ご意向と経験に応じてご相談となります。
<開発環境>
言語:Python, Hive, Spark
AWS:EMR, Glue, Athena, Lambda, APIGateway
GCP:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows
CI・CD・その他:Terraform, CircleCI, GithubActions, digdag, embulk
<備考>
基本リモート
<基本時間>
10:00~19:00
募集終了【Python/SQL/リモート】業務支援案件
業務委託(フリーランス)
PythonSQLHive
作業内容 ・SQL処理のボトルネック解析、および最適化
・実行JOBの連動による運用の自動化
・ソースコード内のエラー解析、catch処理からのハンドリング
・機械学習モデルの改修
募集終了Hadoop / AWS データ分析基盤の運用改善
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を求めております。
データ基盤以外のインフラ全般を担当するメンバーと連携し、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
ご希望の場合はオンサイトも可能
募集終了【AWS】メディア向けインフラ構築案件
業務委託(フリーランス)
JavaPHPPythonRedisMemcacheDBHadoopAWSGitJenkinsMemcacheChefHive
インフラエンジニアサーバーエンジニア
作業内容 ・AWSを使ったインフラ構築、及び運用に携わっていただきます。
・SREチームの所属となりますが、
作業としては、インフラ構築運用をメインにご担当いただきます。
募集終了【言語不問/一部リモート】クラウド分析基盤のアプリケーション保守エンハンス
業務委託(フリーランス)
JavaPythonBigtableGoogle Cloud PlatformHive
作業内容 要件定義,基本設計,詳細設計,実装,テスト,運用・保守,その他
ビッグデータ分析基盤のアプリケーションエンハンス保守に携わって頂きます。
・GCP及び周辺ミドルウェアのEOSLに伴う、既存アプリケーションのバージョンアップ対応
・各所からの要望によるデータレイクへの新規ETL対応
・設計から運用保守までの一通りの作業(影響調査、技術調査、設計、実装、テスト、リリース等)
※保守フェーズのため、基本的には新規開発はなく、調査やEOSL、ETL対応がメインです
募集終了【Java】数値の集計に関する開発保守
業務委託(フリーランス)
JavaPythonSQLHadoopApacheGitGitHubHive
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
■概要
インターネット広告主が利用する、広告管理ツール内の
広告効果レポートに必要な数値の集計に関する開発・保守を行っていただきます。
担当いただく工程は以下の通りで、プログラミングと単体テストがメインになります。
・プログラミング
・単体テスト実施
ユーザー(広告主)との直接のやり取りはありません。
顧客側で作成した案件定義書に従い、プログラミングをお任せすることになります。
勤務地:リモート
精算幅:140-180h
面談:1回
就業:基本リモート可
※自宅以外からのリモートは不可(自宅のみOK)
※週5日〜OKの案件です!