【AWS/Hadoop/Python/リモート併用】地図広告プラットフォーム開発の案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
★本案件の最新の状況は、担当者までお問合せ下さい。
★期間:随時~
地図広告プラットフォーム開発
※20代〜30代が中心で活気ある雰囲気です。
※成長意欲が高く、スキルを急速に伸ばしたい方に最適
※将来リーダーを目指す方歓迎
【AWS(リモート)】損保会社向けAWSインフラ構築案件
業務委託(フリーランス)
AWSRedshiftSnowflake
作業内容 既存AWSインフラの追加開発や改修等をご担当いただきます。
大型AWSインフラシステムを学ぶことができます。
ツール:
・AWS
・SnowFlake
・RedShift
【AWS/Python/リモート併用】インフラ構築の案件・求人
業務委託(フリーランス)
PythonAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
★本案件の最新の状況は、担当者までお問合せ下さい。
★期間:随時~
・Lob分析サービス開発運用
・TVなどの操作Logをもとにランキングなどを出力するサービス開発
(AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発)
※20代〜30代が中心で活気ある雰囲気です。
※成長意欲が高く、スキルを急速に伸ばしたい方に最適
※将来リーダーを目指す方歓迎
【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム(ビッグデータ基盤担当)の案件・求人
業務委託(フリーランス)
JavaPHPPythonSQLGoAWSGit
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、システム開発エンジニア枠(ビッグデータ基盤担当)を募集しております。
<主な業務内容>
主に大規模データを処理するためのクラウドインフラ・アプリケーションソフトの構築から、オーディエンスデータとの紐づけやデータ配信を行うソフトウェア開発までを一貫で担っているチームに所属し、ビッグデータ基盤システムの構築、開発、保守を行い、データの加工(ETL)等をご担当いただきます。
インフラエンジニアやアプリケーションエンジニアといった垣根なく、ご活躍いただくお仕事になります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【クラウドエンジニア(AWS)】【業務委託(準委任)】クラウドを活用したインフラ保守・構築・開発業務【リモートOK】
業務委託(フリーランス)
PythonShellAWS
作業内容 【20代~30代のITエンジニアが活躍中!】
■概要
AWSを活用したインフラ保守、構築、開発業務をお任せいたします。
■具体的な作業内容
・AWSを活用したテレビ朝日案件などのインフラ保守、構築、開発の大型案件
・CMSサービスのインフラ保守運用
・物理サーバー案件(頻度:低)
・インフラ関連業務、及びその他付随業務
※アサイン後はクラウドから物理環境までを扱う業務内容のいずれかをご担当いただきます。
アサイン予定のチームは他の複数のチームと関わりながら業務を遂行する横断的な組織になります。
■参考 使用サービス例
・AWS関連
Amazon EC2(Amazon Linux)、EBS、AutoScalingGroup、ELB各種、ECS、ECR、Amazon S3、EFS、DynamoDB、Elasticsearch Service、 Aurora、 RDS各種、Lambda、Athena、Kinesis、CloudFront、ACM、SNS、Amazon SQS、CloudTrail、CodeCommit、CodeBuild、CodeDeploy、Route53、Direct Connect、VPC、CloudWatch、AWS WAF、GuradDuty
・OSS関連
Apache、Nginx、Redis、MySQL、PostgreSQL、memcached、Postfix、vsftp、Zabbix、crond、OpenSSL、Elasticsearch、Kibana、fluentd、Docker、Ansible、Hadoop、Hbase、Hive、Pig、ZooKeeper、Git、GitHub、GitLab、 GitLab CI Runner、CircleCI、Redmine、WordPress、Laravel、Ruby on Rails、CentOS、Debian、Vernish、Python、Perl、JavaScript、PHP
※一般のWebシステムで使うようなサービスを中心に活用しております。
・その他
Fastly、Twilio、Mackerel、Slack、Backlog
【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム_AWSエンジニア枠の案件・求人
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、AWSエンジニアを募集しております。
<主な業務内容>
AWSを活用したインフラ保守、構築・開発業務
<案件例>
・AWSを活用した某テレビ局社内案件などのインフラ保守、構築・開発の大型案件
・CMSサービスのインフラ保守運用
・物理サーバー案件(頻度:低)
・インフラ関連業務、及びその他付随業務
※アサイン後はクラウドから物理環境までを扱う業務内容のいづれかをご担当いただきます。
アサイン予定のチームは他の複数のチームと関わりながら業務を遂行する横断的な組織になります。
※【参考】使用サービス例
AWS関連:
EC2(AmazonLinux),EBS,AutoScalingGroup,ELB各種,ECS,ECR,S3,
EFS,DynamoDB,ElasticsearchService,Aurora,RDS各種,
Lambda,Athena,Kinesis,CloudFront,ACM,SNS,SQS,
CloudTrail,CodeCommit,CodeBuild,CodeDeploy,Route53,
DirectConnect,VPC,CloudWatch,AWSWAF,GuradDuty
OSS関連
Apache,Nginx,Redis,MySQL,PostgreSQL,Memcached,Postfix,
vsftp,Zabbix,crond,OpenSSL,Elasticsearch,Kibana,Fluentd,
Docker,Ansible,Hadoop,HBase,Hive,Pig,ZooKeeper,
Git,GitHub,Gitlab,GitlabCIRunner,CircleCI,Redmine,
WordPress,Laravel,RubyOnRails,CentOS,Debian,Vernish,
Python,Perl,Javascript,PHP
※一般のWEBシステムで使うようなサービスを中心に活用しております。
その他:
Fastly、Twilio、Mackerel、Slack、Backlog
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【PHP】スマートフォンゲームサーバーサイド開発案件
派遣
PHPSQLLinuxMySQLApachePhpStormHive
サーバーサイドエンジニア
作業内容 ・PHPを用いたスマートフォン向けゲームのサーバサイド開発に携わっていただきます。
・具体的な作業内容は下記を想定しております。
-LAMP環境におけるソーシャルゲームの設計、開発、運用
-クライアントからの問い合わせについての調査、対応
-障害発生時の解決と対応
-各種業務の効率化、自動化のためのツール作成
【クラウドエンジニア】オンプレからGCPへクラウドシフトの求人・案件
業務委託(フリーランス)
Google Cloud PlatformHive
作業内容 製造業情報システム部門でのHiveサーバーをGCPへクラウドシフト業務
募集終了【Python】マーケティングデータ処理開発
業務委託(フリーランス)
JavaPythonRubyScalaHadoopSparkHive
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【概要】マーケティングデータ処理開発
【開発環境】
-言語:Java、Scala(一部:Python、Ruby)
【精算幅】140-180h
【面談】1回
【勤務地】リモート
【備考】
・服装:自由
・就業時間:9:00-17:30
※週5日〜OKの案件です!
募集終了【データベース】データ連携システム開発案件
業務委託(フリーランス)
SQLOracleSQL ServerHive
データベースエンジニア
作業内容 ・データ連携システム開発に携わっていただきます。
・下記を行っていただきます。
-受領データ加工処理
-後続システムへのデータ連携処理の開発
-新環境への処理移行に向けて既存処理(Oracle)の解析、新環境での検証
募集終了【AWS】テレビ視聴データ基盤分析案件
業務委託(フリーランス)
HbaseHadoopSparkAWSHive
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 システム基盤の運用改善をご担当いただきます。
募集終了【Java】統合システム開発案件
業務委託(フリーランス)
JavaApacheHive
作業内容 ・Javaを用いた統合システム開発案件に携わっていただきます。
・主に下記作業をご担当いただきます。
-機能追加開発
-設計~テストまで
募集終了【AWS】地図広告プラットフォーム開発
業務委託(フリーランス)
PythonHadoopSparkAWSHiveGlueAthena
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【概要】
【精算幅】140-180h
【面談】1回
【勤務地】虎ノ門※リモート
【備考】
・服装:自由
・就業時間:9:00-18:00
※週5日〜OKの案件です!
募集終了【AWS/EMR/Hadoop/フルリモート】分散DBを用いたデータ基盤のインフラエンジニア募集
HadoopSparkAWSApache
インフラエンジニア
作業内容 データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMR での Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
募集終了【AWS/EMR/Hadoop/フルリモート】分散DBを用いたデータ基盤のインフラエンジニア募集
業務委託(フリーランス)
HadoopAWSTerraform
インフラエンジニア
作業内容 データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMR での Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
募集終了AWS 分散DBを用いたデータ基盤のインフラエンジニア
HbaseSparkAWSHive
インフラエンジニア
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特に AWS EMRでの Spark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を募集いたします。
データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
募集終了【Objective-C/Swift】Bigqueryデータ移行案件
業務委託(フリーランス)
Objective-CMySQLSparkAWSSwiftGoogle Cloud PlatformBigQueryHive
ネットワークエンジニアスマホアプリエンジニア
作業内容 ・AWSのデータレイクからBigqueryへのデータ移行をおこなっていただきます。
・下記を行っていただきます。
-GCPデータ基盤の整備
-ワークフローエンジン導入
募集終了【DBエンジニア】データ基盤構築PoCプロジ ェクトの求人・案件
業務委託(フリーランス)
JavaPythonKubernetes
バックエンドエンジニア
作業内容 現在国内エネルギー系⼤⼿企業がエンド顧客となるデータ基盤構築PoCプロジェクトが進⾏中。
PoCを通してインフラアーキテクチャの策定、⼤まかなデータパイプラインのフローを策定した9⽉以降の本番環境構築では、インフラ構築からセキュリティ対応、より多くのデータパイプライン構築を予定しており、データエンジニアの拡充を⾏っている。
データ基盤要件定義 データレイクに保存するデータの形式の洗い出し (CSV, JSON, 画像ファイ ル etc…) データソースのインターフェイス特定 (REST API, FTP etc…) データ加⼯(ETL)要件ヒアリング データレイク設計 (Hadoop File System) DWH設計/テーブル定義 (Apache Hive, Spark, HBase etc…) データフロー設計 (Apache NiFi) バッチアプリケーション作成 (Java, Shellスクリプト) インフラセキュリティ対応 (SSL化対応、AD認証連携 etc…)
環境
オンプレサーバー (現地作業等は無し、リモートから接続)
OS: RHEL8HPE Ezmeral Data Fabric (Hadoop, Hive, Spark, NiFi etc…)
データ分散処理基盤にまつわるpache系OSSをまとめたパッケージ製品
(サポートが付くだけのようなイメージ)
HPE Ezmeral Runtime (≒ Kubernetes)
OpenShift等に⽐べ、より純正Kubernetesに近い
構成
データレイク: HDFS, minio(≒S3), HBase
DWH: Hive or Spark
ワークフロー: NiFi or Airflow
データ加⼯: Hive, Spark (シェルスクリプト/Java or Python)
BI: Tableau, Palantir (本募集スコープの作業範囲外)
体制
アジャイル開発 (スクラム)
メンバー10名程度
デイリーで午前にスクラムミーティング有り
募集終了AWS データレイク・DWH管理等
PythonSparkAWSGitGoogle Cloud PlatformBigQueryHiveGlueAthenaTerraformCircleCILambda
作業内容 動画やECサイト等、Webコンテンツを数多く提供しているサービス企業において、サービス提供の根幹となるデータレイク・DWH管理などの対応をしていただきます。
主な業務内容は以下を想定していますが、詳細についてはご面談時に説明させていただきます。
1. AWSのデータレイクからBigqueryへのデータ移行作業
2. GCPデータ基盤の整備(ワークフローエンジン導入等)
→2番の作業関しては、ご意向と経験に応じてご相談となります。
<開発環境>
言語:Python, Hive, Spark
AWS:EMR, Glue, Athena, Lambda, APIGateway
GCP:BigQuery, GCS, Pub/Sub, Dataflow, CloudComposer, Dataproc, Workflows
CI・CD・その他:Terraform, CircleCI, GithubActions, digdag, embulk
<備考>
基本リモート
<基本時間>
10:00~19:00
募集終了Hadoop / AWS データ分析基盤の運用改善
作業内容 テレビ視聴データを分析するデータ基盤のインフラエンジニアとして、特にAWS EMRでのSpark, HBase, Hive, Presto, Hudiといった分散DBの知見のある方を求めております。
データ基盤以外のインフラ全般を担当するメンバーと連携し、システム基盤の運用改善に取り組んでいただきます。
<備考>
フルリモート
ご希望の場合はオンサイトも可能
募集終了Python/SQL 開発・保守および運用に関する支援業務(リモート)
作業内容 ・データ加工のバッチ開発/運用(データ設計、ETL処理の開発)
・カテゴリ付与などのデータ加工の検討・実装など
募集終了【BigQuery】機械学習関連DWHエンジニア募集|フルリモート|~100万
業務委託(フリーランス)
PythonSQLLinuxAWSAzureDockerBigQueryHiveSnowflakeTerraformLambda
データベースエンジニア
作業内容 機械学習を用いた予測システムの開発・運用データエンジニア(DWH)
エネルギー業界向けに機械学習を用いた予測システムの開発・運用
・多モデル予測パイプラインの設計
・監視・通知の仕組みの設計 etc..
・希望に応じて機械学習モジュールの開発も可能
募集終了【分析基盤エンジニア】データエンジニアリング業務 (HR領域)
業務委託(フリーランス)
SQLGoogle Cloud Platform
作業内容 お客様と要件を整理し分析用のデータマートを作成します。データ加工用のSQLを作成したり、データマートの設計が主な業務となります。
使用データベースはGCP/BigQueryを利用
一部のクエリは既存からの移植となり、移植元はHadoop(HIVEで接続)です。
募集終了★元請直/リモート/AWS+EMR データ蓄積基盤構築
業務委託(フリーランス)
SQLHadoopSparkAWSRedshiftHiveAthena
データサイエンティスト
作業内容 ビッグデータを蓄積するオンプレHadoop基盤をAWS EMRを利用した基盤に変更する
その後、既存データを新基盤に移行する作業も実施予定。
募集終了【AWS】メディア向けインフラ構築案件
業務委託(フリーランス)
JavaPHPPythonRedisMemcacheDBHadoopAWSGitJenkinsMemcacheChefHive
インフラエンジニアサーバーエンジニア
作業内容 ・AWSを使ったインフラ構築、及び運用に携わっていただきます。
・SREチームの所属となりますが、
作業としては、インフラ構築運用をメインにご担当いただきます。
募集終了【言語不問/一部リモート】クラウド分析基盤のアプリケーション保守エンハンス
業務委託(フリーランス)
JavaPythonBigtableGoogle Cloud PlatformHive
作業内容 要件定義,基本設計,詳細設計,実装,テスト,運用・保守,その他
ビッグデータ分析基盤のアプリケーションエンハンス保守に携わって頂きます。
・GCP及び周辺ミドルウェアのEOSLに伴う、既存アプリケーションのバージョンアップ対応
・各所からの要望によるデータレイクへの新規ETL対応
・設計から運用保守までの一通りの作業(影響調査、技術調査、設計、実装、テスト、リリース等)
※保守フェーズのため、基本的には新規開発はなく、調査やEOSL、ETL対応がメインです
募集終了CRM施策に関連するデータ加工/抽出/分析業務
PythonSQLMySQLPostgreSQLGitJIRABigQueryHive
作業内容 CRM施策に関連する、以下の業務をご担当いただきます。
■具体的には…
・メールマガジン、Push通知、広告配信等の配信に必要なセグメント抽出用クエリ作成
→事前データ調査やユーザーリストの作成
・事業KPI設計
・成果レポート用クエリ作成
・BIツール移行対応
・施策ヒアリング等の要件定義
■開発環境
PC:Mac(JIS/US 選択可)
ミドルウェア:MySQL、PostgreSQL
管理ツール:Slack、Jira、Confluence、Git
その他:BigQuery、LookerStudio、Redash、Hive
■担当工程
要件定義、基本設計、詳細設計
保守改修、運用
※アダルトコンテンツ一部有り
レポート作成やセグメントに利用するSQLの業務では直接的に触れる形ではないが、
抽出データ内に作品タイトルなどが表示されるケースあり
募集終了【Java】数値の集計に関する開発保守
業務委託(フリーランス)
JavaPythonSQLHadoopApacheGitGitHubHive
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
■概要
インターネット広告主が利用する、広告管理ツール内の
広告効果レポートに必要な数値の集計に関する開発・保守を行っていただきます。
担当いただく工程は以下の通りで、プログラミングと単体テストがメインになります。
・プログラミング
・単体テスト実施
ユーザー(広告主)との直接のやり取りはありません。
顧客側で作成した案件定義書に従い、プログラミングをお任せすることになります。
勤務地:リモート
精算幅:140-180h
面談:1回
就業:基本リモート可
※自宅以外からのリモートは不可(自宅のみOK)
※週5日〜OKの案件です!
募集終了【Java】広告管理チールの開発保守
業務委託(フリーランス)
JavaPythonSQLHadoopApacheGitGitHubHive
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
▼概要
インターネット広告主が利用する、
広告管理ツール内の広告効果レポートに必要な
数値の集計に関する開発・保守を行っていただきます。
担当いただく工程は以下の通りで、
プログラミングと単体テストがメインになります。
・プログラミング
・単体テスト実施
ユーザー(広告主)との直接のやり取りはありません。
顧客側で作成した案件定義書に従い、
プログラミングをお任せすることになります。
▼条件等
就業:リモート可/紀尾井町
※業務的に出社が必要な場合は紀尾井町(東京都千代田区)に出社
精算幅:140-180h
談:1回
※週5日〜OKの案件です!
募集終了【AWS/GCP/Python/フルリモート】AWSデータレイクの構築やGCPデータ基盤の整備
業務委託(フリーランス)
PythonAWSGoogle Cloud Platform
作業内容 データレイクやDWH管理を行っているチームにて、下記業務をご対応いただきます。
・AWSからGCPへの移行作業
・GCPのデータ基盤構築