【AWS/フルリモート】エンドユーザー向けAWS基盤の設計レビュー・改善・実装・メンテナンス
作業内容 ・既存のAWS基盤の調査改善
・ETL環境運用作業(テーブル追加、カラム変更程度)
【Python】アドテク/機械学習/データマイニング案件
業務委託(フリーランス)
C++JavaCPythonRubyGoAndroidLinuxiOSUnixMySQLRedisHadoopRailsSparkAWSNginxUnicornJenkinsJIRAMemcacheSwiftGitHubChefKotlinZabbixAnsibleHive
スマホアプリエンジニア
作業内容 ・マーケティングを技術でリードするため、
機械学習やデータマイニングなどに携わって頂きます。
・課題解決のため、様々なアプローチを検討し、最適化して頂きます。
・主な業務は下記の通りです。
-リターゲティング広告配信やプロモーションのためのDMP構築
-サードパーティの広告配信へのオーディエンスデータ連携
-ログからキャンペーンのレポーティングやパフォーマンス実証
-データ解析環境の構築や効果的な広告配信のためのデータ分析
-アプリのプロモーションや広告運用のテクニカルサポート
【Python】アドテク/機械学習/データマイニング案件
業務委託(フリーランス)
C++JavaCPythonRubyGoAndroidLinuxiOSUnixMySQLRedisHadoopRailsSparkAWSNginxUnicornJenkinsJIRAMemcacheSwiftGitHubChefKotlinZabbixAnsibleHive
スマホアプリエンジニア
作業内容 ・マーケティングを技術でリードするため、
機械学習やデータマイニングなどに携わって頂きます。
・課題解決のため、様々なアプローチを検討し、最適化して頂きます。
・主な業務は下記の通りです。
-リターゲティング広告配信やプロモーションのためのDMP構築
-サードパーティの広告配信へのオーディエンスデータ連携
-ログからキャンペーンのレポーティングやパフォーマンス実証
-データ解析環境の構築や効果的な広告配信のためのデータ分析
-アプリのプロモーションや広告運用のテクニカルサポート
【直接取引】【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【直接取引】【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【Python/SQL / ~40歳まで】不動産検索サービスのデータ基盤システム運用開発・データマート作成
業務委託(フリーランス)
PythonSQLWindowsMySQLSparkAWSGitHubGoogle Cloud PlatformBigQueryTableau
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
■仕事内容__:
データ集積システムの開発・運用に関連するエンジニアリング業務 チームの役割: 各種システムに分散しているデータを収集・整形し、分析可能な形で社内のユーザー(社員)に届ける。
【主な担当業務】 データ集積システムの構築に関わる連携バッチの開発やデータマートの作成業務が中心です。 各部署の利用者から上がってくる要望や作業依頼を実現するための要件ヒアリングや開発、運用作業を行います。 また利用者からの要望に先んじてシステム改善を行うための開発も行います。
-
■作業環境__:Windows/Mac選択可
■開発環境
言語____:Python,SQL
DB____:MySQL,BigQuery
FW____:Spark
環境・OS_:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール___:Tableau,GitHub
その他___:
■体制____:4人~10人
■開発工程__:要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運用・保守
■現場雰囲気_:
■人物像___:・前向きでオープンなコミュニケーション ・チャレンジ精神、成長意欲 ・技術が好き
■性別____:不問
■期間____:即日
■就業時間__:10:00~19:00
■勤務地___:半蔵門駅
■勤務地補足_:※基本リモート、週1出社の可能性あり-
■平均稼働__:160時間前後
■時間幅___:140時間~ 180時間
■条件____:中間割
■服装____:カジュアル
■営業コメント:本企業は、「日本一働きたい」会社としても選べばれている会社です。 モダンな開発環境にて開発を推進しているため、スキルアップにもぴったりな現場です。
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
【AWS】クラウド基盤上システム構築・運用案件
作業内容 ・クラウド基盤上のシステムの構築と運用をご担当いただきます。
・要件定義や顧客折衝にも携わっていただきます。
【Azure】在庫管理システムの構築案件/フルリモート
作業内容 大手小売り企業様にての業務となります。
在庫管理等の分散処理システムをHadoop on Sparkで組んでおり
DMCから逆輸入による導入を実施して頂きます。
【体制】
・リーダー:一名 (hadoop有識者、テックリード)
・SIer内hadoopスペシャリストに相談可能
・オフショアメンバー(中国)側と連携して進める。
【商流】
某大手小売流通→大手SIer→同社
【Python】to B向け分析基盤システム開発案件
業務委託(フリーランス)
PythonSQLLinuxAzure
作業内容 ・To B向け分析基盤システムの開発に携わっていただきます。
・具体的には以下の作業を想定しております。
-設計、実装、テスト
-新規または追加開発
【Python】アドテク/機械学習/データマイニング案件
業務委託(フリーランス)
C++JavaCPythonRubyGoAndroidLinuxiOSUnixMySQLRedisHadoopRailsSparkAWSNginxUnicornJenkinsJIRAMemcacheSwiftGitHubChefKotlinZabbixAnsibleHive
スマホアプリエンジニア
作業内容 ・マーケティングを技術でリードするため、
機械学習やデータマイニングなどに携わって頂きます。
・課題解決のため、様々なアプローチを検討し、最適化して頂きます。
・主な業務は下記の通りです。
-リターゲティング広告配信やプロモーションのためのDMP構築
-サードパーティの広告配信へのオーディエンスデータ連携
-ログからキャンペーンのレポーティングやパフォーマンス実証
-データ解析環境の構築や効果的な広告配信のためのデータ分析
-アプリのプロモーションや広告運用のテクニカルサポート
【分析基盤エンジニア】データ利活用を推進するETL/ELT処理開発、DWH構築などのデータ基盤開発支援
業務委託(フリーランス)
AWSAzureGoogle Cloud Platform
サーバーサイドエンジニア
作業内容 エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。 ◆業務内容の詳細◆ Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用 Apache Sparkを利用したETL処理の開発 各サービス開発チームのデータエンジニアリングの支援 ◆今後の進展について◆ 昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。 それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。
【Java/Scala】広告配信系システム開発案件
業務委託(フリーランス)
JavaPythonRubyGoScalaHadoopRailsSparkGoogle Cloud Platform
作業内容 ・広告配信システムの業務ロジック周りの設計及び開発に
携わっていただきます。
・下記開発環境での開発をお任せします。
-配信部分:Java
-配信以外の分散処理部分:Hadoop
-管理画面:Ruby
-Spark部分:Scala
-データ分析部分:Python
-クラウドサービス:GCP
-開発手法:スクラム
・他システムでGolangを使用しているため、
ご経験とタイミングに応じてGolangでの開発もご対応いただきます。
【Python/SQL】自社サービスSaaS(在庫管理)のバックエンド開発(データ基盤)
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAurora
フロントエンドエンジニアAIエンジニアバックエンドエンジニア
作業内容 ■業務内容
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、
エンタープライズとの契約が急激に増えている中で、
非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
New【Python】バックエンドエンジニアの求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWS
バックエンドエンジニア
作業内容 エンドクライアントを支援するサービスのダッシュボードのデータベース設計、API開発、ETL処理の開発をする業務をお願いします。
[具体的な業務]
・RDBのデータベース設計
・Glue JobでPythonを利用したETL処理の設計・開発
・API Gateway、Lambdaを利用したAPI開発
・技術的知見からの、プロダクトオーナと協調した仕様策定
・AWS関連リソースのより積極的な活用
・git flowベースの開発進行
【Python/SQL】Saasのデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【概要】
・在庫最適化システムを支えるデータ基盤の構築
・Saasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望の相談増
・数億レコードにもなる大量のデータ加工をSQLやPythonを用いて作成、
集計後、データストアに投入する基盤の構築
・エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制
【工程】
基本設計 詳細設計 開発 単体テスト 結合テスト 総合テスト 運用
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・検索エンジン: Amazon Elasticsearch Service
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ: Amazon Web Services
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【AWS/Python】需要予測ジック開発/構築案件
業務委託(フリーランス)
PythonSQLAWSGit
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 需要予測のためのロジック開発、実装(AIモデル/ルールベース)をしていただきます。
【Python】大手メーカー内のバックオフィス業務開発の案件・求人
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
・大手メーカー内のバックオフィス業務開発開発、運用を繰り返すイメージです。
・AWS上でのデータ解析基盤の構築
利用するAWSサービスの候補
-Redshift,EMR(spark),Athena,RDS,EC2,VPC,CloudFormation,
Lambda,StepFunction
その他プロダクト、ツール
-Tableau,Github,Confluence,JIRA,Slack
言語・スクリプト
-Python,shell,SQL
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
GCP|経験5年|データ基盤構築支援|クラウドエンジニア
業務委託(フリーランス)
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。
一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。
インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。
社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて
モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
【Azure】クラウド基盤上システム構築・運用案件
作業内容 ・クラウド基盤上のシステム構築と運用をご担当いただきます。
・要件定義や顧客折衝にも携わっていただきます。
【新規ダークファンタジー系スマートフォンゲーム】エフェクトデザイン案件
業務委託(フリーランス)
MayaUnity
エフェクトデザイナー
作業内容 新規開発中RPG、運用中RPGのいずれかにて
3Dエフェクト製作をお任せいたします。
※スキルに応じて他の作業もお任せ致します
【Java】某ガス会社様向けJavaバッチ処理開発
業務委託(フリーランス)
Java
サーバーサイドエンジニア
作業内容 Javaを使用した某ガス会社様向けJavaバッチ処理開発を行って頂きます。
工程としましては、詳細設計~開発~テストをご担当頂きます。
【データエンジニア】
作業内容 DX推進を行っている部署の中で、既存で散らばっている社内のデータを集約する作業を行なっております。
既存のデータはAzureの中に入れており、そこのデータパイプラインの保守作業を行いつつ、新規パイプラインの設計・構築を行っていただきます。(Sparkを想定しております。)
また、集約したデータをBIツールを活用し、データ可視化も行っています。
(既存ダッシュボードの保守、新規ダッシュボード構築など)
Java / Linux など アプリの新基板への移行・コンテナ化の支援
JavaPythonWindowsLinuxHadoopSparkOpenShiftApacheKafkaKubernetes
作業内容 オンプレミスの大規模データ収集基板構築に伴い、アプリケーションの新基板への移行/アプリケーションのコンテナ化を支援していただける方を募集いたします。
アプリケーションの設計、開発、テストがメイン業務となります。
アプリ設計、データ投入、環境利用等で分散FS(Hadoop)の構成について考慮する必要があるため、Hadoop環境の利用経験があればよりマッチいたします。
<業務内容>
・RDBからデータ取得を行うアプリケーションを、DWH(Hadoopベース)からデータ取得を行うように改修
→改修のための設計、開発、テスト
・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)
<開発環境>
・Java
・Hadoop(Cloudera)
・Apache kafka
・Apache spark
・Kubernetes/OpenShift/vCenter
<備考>
現状リモートワーク
新型コロナウイルス感染症の終息後は出社予定
<基本時間>
9:00~18:00
【Scala/Java/Pythonなど】大手広告代理店におけるデータ基盤の開発、運用、保守の求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaSparkAWSDockerApacheGitHubSnowflakeKubernetes
作業内容 【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。
【ポイント】
データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。
【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。
チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。
Infeed領域の広告運用のためのプロダクトを開発するグループインターネット広告関連データをデータレイクに蓄積するシステムを開発するグループインターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ機械学習を用いたプロダクトを開発するグループ掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ
【技術キーワード】
ApacheSparkAWS GlueSnowflakeデータレイク/データウェアハウス/データマート
【Python/SQL】データ基盤運用保守の求人・案件
業務委託(フリーランス)
PythonSQLLinuxAWSGoogle Cloud Platform
作業内容 Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善
主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)
【データエンジニア】
作業内容 DX推進を行っている部署の中で、既存で散らばっている社内のデータを集約する作業を行なっております。
既存のデータはAzureの中に入れており、そこのデータパイプラインの保守作業を行いつつ、新規パイプラインの設計・構築を行っていただきます。(Sparkを想定しております。)
また、集約したデータをBIツールを活用し、データ可視化も行っています。
(既存ダッシュボードの保守、新規ダッシュボード構築など)
【Python/AIエンジニア】探索型BIツール開発におけるデータサイエンティスト
業務委託(フリーランス)
PythonHadoopSparkTableau
データサイエンティストAIエンジニア機械学習エンジニア
作業内容 [ポジション]:AIエンジニア
自社で探索型BIツールを開発しており、そこにおける人材を募集
・検索・機械学習エンジンの開発・実装、および性能改善
・自然言語処理を使用した検索エンジンの開発
・大規模分散処理を伴う汎用的な機械学習エンジンやモデルの開発
【Unix/Linux】行動分析/混雑統計案件
業務委託(フリーランス)
JavaSQLLinuxUnixHadoopSparkAWS
インフラエンジニアサーバーエンジニアデータベースエンジニア
作業内容 ・データベース内ビッグデータの集計及び分析作業を行っていただきます。
・下記をご担当いただきます。
-エンジンプログラムのカスタマイズ
-SQLによるデータ集計
【ETL(リモート)】インタフェース開発
作業内容 ・IF各種設計書作成
・MS Fabric環境での実装(検証及びテストも含む)
・その他上記に付随する業務