【AWS/リモート併用】テクノロジーセンター_クラウドテクノロジーチーム_AWSエンジニア枠の案件・求人
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
テクノロジーセンター_クラウドテクノロジーチーム内にて、AWSエンジニアを募集しております。
<主な業務内容>
AWSを活用したインフラ保守、構築・開発業務
<案件例>
・AWSを活用した某テレビ局社内案件などのインフラ保守、構築・開発の大型案件
・CMSサービスのインフラ保守運用
・物理サーバー案件(頻度:低)
・インフラ関連業務、及びその他付随業務
※アサイン後はクラウドから物理環境までを扱う業務内容のいづれかをご担当いただきます。
アサイン予定のチームは他の複数のチームと関わりながら業務を遂行する横断的な組織になります。
※【参考】使用サービス例
AWS関連:
EC2(AmazonLinux),EBS,AutoScalingGroup,ELB各種,ECS,ECR,S3,
EFS,DynamoDB,ElasticsearchService,Aurora,RDS各種,
Lambda,Athena,Kinesis,CloudFront,ACM,SNS,SQS,
CloudTrail,CodeCommit,CodeBuild,CodeDeploy,Route53,
DirectConnect,VPC,CloudWatch,AWSWAF,GuradDuty
OSS関連
Apache,Nginx,Redis,MySQL,PostgreSQL,Memcached,Postfix,
vsftp,Zabbix,crond,OpenSSL,Elasticsearch,Kibana,Fluentd,
Docker,Ansible,Hadoop,HBase,Hive,Pig,ZooKeeper,
Git,GitHub,Gitlab,GitlabCIRunner,CircleCI,Redmine,
WordPress,Laravel,RubyOnRails,CentOS,Debian,Vernish,
Python,Perl,Javascript,PHP
※一般のWEBシステムで使うようなサービスを中心に活用しております。
その他:
Fastly、Twilio、Mackerel、Slack、Backlog
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Python(機械学習・AI系)】DX支援!データサイエンティスト募集
業務委託(フリーランス)
Python
データサイエンティスト
作業内容 【20 代から40 代の方が活躍中!】
※週4日〜OK案件です!
※実務経験2年以上ありの方が対象の案件です!
■概要
検索・機械学習エンジンの開発・実装を担当し、自然言語処理を用いた検索エンジンの開発や性能改善を行います。大規模データを扱うスキルが求められ、分散処理技術の知識も歓迎します。
■具体的な業務内容
・検索・機械学習エンジンの開発・実装、性能改善
・自然言語処理技術を用いた検索エンジンの開発
・大規模分散処理を伴う機械学習モデルの開発
・Pythonを使用したデータ探索、特徴量変換、システム実装
勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。
------------------------------------------------------------------
直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。
弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。
------------------------------------------------------------------
※弊社では、法人、請負いの案件は取り扱っておりません。
【Python(データ分析系)】ゲーム事業向けデータアナリスト募集
業務委託(フリーランス)
PythonSQL
プランナーデータアナリスト
作業内容 【20 代から40 代の方が活躍中!】
※週4日〜OK案件です!
※実務経験2年以上ありの方が対象の案件です!
■概要
ゲーム事業において、事業価値向上を目的としたデータ分析業務を担当します。分析要件の定義からデータの加工・分析を行い、インサイトを基にした施策の提案と実行支援を行います。また、プロデューサーや企画担当者、エンジニアと連携しながらプロジェクトを推進します。
■具体的な業務内容
・事業価値向上のための分析要件の定義
・データ加工および分析の実施、インサイトの抽出
・分析結果を基にした企画の提案と実行支援
・プロデューサーや各担当者とのコミュニケーション
勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。
------------------------------------------------------------------
直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。
弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。
------------------------------------------------------------------
※弊社では、法人、請負いの案件は取り扱っておりません。
【Python(データ分析系)】大手コミュニケーションツールの金融部門によるデータマネジメント基盤構築案件
作業内容 【20 代から40 代の方が活躍中!】
※週4日〜OK案件です!
※実務経験2年以上ありの方が対象の案件です!
・背景
ー2019年より、金融データ分析基盤の構築を大手SNS企業にて行っています。
ー過去は海外サイドで開発と運用が行われてきたが、2021年に内部監査により、オーナーシップを明確に持つべきと指摘された為、オーナーシップを子会社単体で持つように移管し独自Data Management室を設立しました。
ー2022年度はセキュリティ強化が必要なため、VDI化等を行う予定です。
ー最近になり、現場上長と本社サイドのエンジニア2名が退職することが重なり、エンジニアの補填が必要になりました。
・業務内容
ー現場上長(日本)の最終出社日が8/10のため、それまでに引継ぎ(内容理解)を受けてもらいたいです。
ー海外サイドのエンジニア(Seniorレベル)が2名抜けるため、補填したいと考えています。(プラットフォーム運営)
ー下記のシステム運用に関わる業務を海外(韓国)と分担して実施いただきたいが、日本側の室長も離任する為一部の業務もお願いすることも想定されています。
ー上流のロールだが、プラットフォーム運営の設定やチューニングも実施いただくことも想定されています。
・環境
ーデータベース:Hadoop(Cloudera Data Platform)、一部MySQL
ーBIツール:Zeppelin、Tableau
ーETLツール:内製、一部Airflow
ーデータ量:約500TB(Diskは1PB)
・ユーザー:80名程度
・業務
海外サイド
ープラットフォーム運営 ※Seniorレベル
ーデータ収集(ETL作業)
ーKPIレポート作成
ーユーザー権限管理
ーZeppelin保守
日本サイド
ーガバナンス系:利用のガイダンス作成および展開、各種契約管理業務
ーシステム系:VDI導入、Space Porter導入、韓国サイドの管理業務(通訳あり)
ー活用系:データ分析の支援、コンサルティング業務
勤務開始時には、プロジェクトの一員として、コミュニケーションを取りながら業務を進めて頂く予定です。また、緊急時に出社が必要となる場合がございます。
------------------------------------------------------------------
直近の参画案件の経験とご希望に併せた案件のご紹介をさせて頂きます。
弊社は様々なプロジェクトの提案を強みとしておりますので、お気軽にご相談頂けますと幸いです。
------------------------------------------------------------------
※弊社では、法人、請負いの案件は取り扱っておりません。
AWSエンジニア 分散DBを用いたデータ基盤
業務委託(フリーランス)
HadoopAWS
インフラエンジニア
作業内容 データ基盤以外のインフラ全般について担当するエンジニアと連携して、システム基盤の運用改善に取り組んでいただきます。
【Python】ネット証券アプリ開発
業務委託(フリーランス)
Python
サーバーサイドエンジニア
作業内容 ・PySparkでHadoopクラスタ上のデータを分析するアプリの開発・Hadoopクラスタにデータを取込(いわゆるETL)アプリ・スクリプトの保守
【Scala】某通信キャリアの情報系システム保守・開発
業務委託(フリーランス)
JavaScalaHadoopSparkApache
サーバーサイドエンジニア
作業内容 某通信キャリアの情報系システムのエンハンス対応
【Scala】証券会社でのビッグデータ系開発案件
業務委託(フリーランス)
JavaScala
サーバーサイドエンジニア
作業内容 取引システムから出力されるログデータを、Hadoop基盤に取り込むETL(主にScala)の開発をメインに行っていただきます
募集終了【フルリモート案件】【AWS】某メーカー向けAWS移行支援
作業内容 お客様にて配賦処理サーバを国内DCプライベートクラウド上に
Hadoopサーバを構築して運用中であるが、RHELサポート切れが近い為、
現行環境をAWS上に移行予定。
現行Hadoopクラスタ環境をAWS EMRに移行するにあたり以下作業を実施予定。
・PoC環境の設計、構築、テスト
・アプリチームの支援(AWS関連)
・性能テスト支援(リソース情報取得等) 等
募集終了【AWS(リモート)】電力データ活用基盤移行に伴うインフラ基盤設計/構築支援
業務委託(フリーランス)
HadoopSparkAWS
作業内容 ・詳細設計書の執筆
・パラメータシート作成
・検証環境の構築
・基盤の構築作業
・単体/結合試験項目書の作成、テストの実施
・その他障害対応、技術検証、ベンダー問い合わせ対応などをご担当いただきます
募集終了【RHEL】DX推進に向けたデータ利活用基盤開発支援
作業内容 ・DX推進の一環として、グループ各社のデータを横断的に利活用できる基盤を開発
・ベンダー側SEとして設計または構築フェーズから参画予定
・業務範囲未定(8/28, 29のMTGでお客様と共に決定)
・現時点で上がっている候補は下記
-Ezmeral Data Fabric構築((Hadoop環境≒旧MapR)
-Ezmeral Runtime構築(Kubernetes環境)
-Ezmeralログ監理
-Ezmeralユーザー管理(認証含む)
-データ移行設計・移行実施
-DWH設計・構築
-Ezmeral Data FabricとTableauの接続
募集終了【Linux】基盤の構築/運用
作業内容 ・サービスやシステム関連ログ等を分散処理基盤(Hadoop&Elasticsearch使用)へ集約し、システム運用者や分析者向けにデータ活用を実施しております。
・基盤の構築/運用からデータ活用に伴うデータ加工処理開発など幅広く対応しておりますが、主には基盤の構築/運用がスコープとなります。
募集終了【リモート】ETL開発
業務委託(フリーランス)
PythonSQLAWSGitHub
サーバーサイドエンジニア
作業内容 ・現行オンプレHadoopでデータレイク+データマート構築しているものをクラウド移行
・移行対象は40テーブル、ETL処理100本
・Glue+PythonでETL開発
募集終了Python データ分析及びバックエンド開発業務(リモート)
業務委託(フリーランス)
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
募集終了バックエンドエンジニア AI開発やバックエンド開発(リモート)
業務委託(フリーランス)
SQLPyTorchTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
募集終了【ほぼフルリモート】某大手通信事業者向けデータ加工処理マイグレーション検討
業務委託(フリーランス)
SparkAWSApacheSnowflakeGlue
作業内容 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます
【マイグレーション例】
・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト
・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する
⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション
募集終了【AWS】データ利活用を目的としたビッグデータの加工、集計業務(リモート)
業務委託(フリーランス)
PythonSQLLinuxAWSLambda
作業内容 スクラムのメンバーとして、基盤構築/アプリ開発を業務としてご担当していただきます。
募集終了【Linux/Hadoop】BigQuery運用構築案件
業務委託(フリーランス)
ShellLinuxHadoopBigQuery
インフラエンジニアサーバーエンジニア
作業内容 ・運用設計を行っていただきます。
・下記に携わっていただきます。
-Hadoopマイグレに伴うアプリケーション移行の実施
-Hadoop上で実施しているマート、加工クエリの移行
募集終了【Azure】Azure構築案件
業務委託(フリーランス)
HadoopAzure
サーバーエンジニア
作業内容 在庫管理等の分散処理システムをHadoop on Sparkで組んでおり
DMCから逆輸入による導入を実施。
・リーダー:一名 (hadoop有識者、テックリード)
・SIer内hadoopスペシャリストに相談可能。
・オフショアメンバー(中国)側と連携して進める。
募集終了【サーバー(Linux系)】オンプレミスHadoop環境のアップグレード【リモートOK】
作業内容 ■概要
オンプレミスHadoop環境のアップグレードをお任せいたします。
■具体的な作業内容
・某通信大手様のオンプレミスHadoop環境アップグレードを実施
・重要なシステム且つ200台以上のサーバーで構成されているクラスタリングを扱う
募集終了【Hadoop】インフラ移行案件
業務委託(フリーランス)
SQLLinuxOracleHadoop
インフラエンジニア
作業内容 ・オンプレHadoopのクラウド移行に携わっていただきます。
募集終了【Hadoop/Java】Hadoop設計構築支援
業務委託(フリーランス)
JavaHadoop
サーバーサイドエンジニア
作業内容 ビックデータの分析基盤構築支援を行って頂きます。
データ分析を効率的に行うための基盤や
ツールの整備、設計、開発をご担当いただきます。
募集終了【Azure】在庫管理システムの構築案件/フルリモート
作業内容 大手小売り企業様にての業務となります。
在庫管理等の分散処理システムをHadoop on Sparkで組んでおり
DMCから逆輸入による導入を実施して頂きます。
【体制】
・リーダー:一名 (hadoop有識者、テックリード)
・SIer内hadoopスペシャリストに相談可能
・オフショアメンバー(中国)側と連携して進める。
【商流】
某大手小売流通→大手SIer→同社
募集終了リモート併用|【Hadoop/Spark/AmazonKinesis】オンプレミスサーバ運用(バックエンドエンジニア)
業務委託(フリーランス)
HadoopSpark
バックエンドエンジニア
作業内容 【概 要】 Hadoop運用/およびLinuxサーバの運用業務となります。
オンプレサーバ運用かつ、新規運用となりますのでLinux運用経験/運用設計が可能な方を想定しています。
・Hadoopまたは類似システムの運用経験があること
(優先度としては、Hadoop>類似のシステムSpark/AmazonKinesisなど)
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
募集終了【Linux】分析基盤サーバ設計構築案件
業務委託(フリーランス)
LinuxHadoopSparkApacheAnsible
インフラエンジニアサーバーエンジニア
作業内容 ・Hadoop、Apache Sparkなど分析基盤の
PoCおよび環境構築に携わっていただきます。
募集終了【Java,Javascript,MySQL,基本設計,Hadoop】レコメンドエンジン開発
業務委託(フリーランス)
JavaJavaScriptMySQLHadoopSparkJenkinsAnsible
アプリケーションエンジニア
作業内容 ・node.js でのAPI設計・開発・テスト
・Hiveクエリの作成・テスト・チューニング
・Spark プログラムの設計・開発・テスト
・Jenkinsジョブの作成
・Ansible設定ファイルの作成
募集終了【Azure】クラウドエンジニアの求人・案件
業務委託(フリーランス)
HadoopAzure
インフラエンジニア
作業内容 在庫管理等の分散処理システムをHadoop on Sparkで組んでおりDMCから逆輸入による導入
募集終了【Spark/Hadoop】美容系サービス向けデータ分析基盤運用案件
業務委託(フリーランス)
JavaPythonScalaHadoopSpark
インフラエンジニアデータベースエンジニア
作業内容 ・美容(コスメ)の口コミサイトに関連する
データ分析基盤の運用や機能改修をご担当いただきます。
募集終了Hadoopエンジニア案件
業務委託(フリーランス)
JavaPythonSQLShellLinuxHbaseHadoop
作業内容 ・データ分析を通じた新サービス開発のために、企画者/分析者が作成した要件を理解し、Hadoop上にShellもしくはJavaで実装を行って頂きます。
募集終了MySQL / Hadoop など 金融データ分析基盤の運用に関わる支援
作業内容 金融データ分析基盤の運用に関わる業務支援
・プラットフォーム運営 ※Seniorレベル
・データ収集(ETL作業)
・KPIレポート作成
・ユーザー権限管理
・Zeppelin保守
<環境等>
データベース:Hadoop(Cloudera Data Platform), 一部MySQL
BIツール:Zeppelin, Tableau
ETLツール:内製, 一部Airflow
データ量:約500TB(Diskは1PB)
<備考>
テレワーク中心