New【Python】バックエンドエンジニアの求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWS
バックエンドエンジニア
作業内容 エンドクライアントを支援するサービスのダッシュボードのデータベース設計、API開発、ETL処理の開発をする業務をお願いします。
[具体的な業務]
・RDBのデータベース設計
・Glue JobでPythonを利用したETL処理の設計・開発
・API Gateway、Lambdaを利用したAPI開発
・技術的知見からの、プロダクトオーナと協調した仕様策定
・AWS関連リソースのより積極的な活用
・git flowベースの開発進行
【Python/SQL】Saasのデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【概要】
・在庫最適化システムを支えるデータ基盤の構築
・Saasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望の相談増
・数億レコードにもなる大量のデータ加工をSQLやPythonを用いて作成、
集計後、データストアに投入する基盤の構築
・エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制
【工程】
基本設計 詳細設計 開発 単体テスト 結合テスト 総合テスト 運用
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・検索エンジン: Amazon Elasticsearch Service
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ: Amazon Web Services
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
Scalaエンジニア 機械学習モデルの実装とデータ分析基盤の開発
作業内容 ・データ処理と前処理の実装
・Scalaを使用して機械学習アルゴリズムやモデルの実装
・大規模データセットを使用する場合、分散処理フレームワーク(例: Apache Spark)を使用して機械学習アルゴリズムをスケーラブルに実行
・モデル評価とパフォーマンス改善
・データ分析基盤の開発
・データの可視化とレポーティング
【直接取引】【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【Python/SQL / ~40歳まで】不動産検索サービスのデータ基盤システム運用開発・データマート作成
業務委託(フリーランス)
PythonSQLWindowsMySQLSparkAWSGitHubGoogle Cloud PlatformBigQueryTableau
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
■仕事内容__:
データ集積システムの開発・運用に関連するエンジニアリング業務 チームの役割: 各種システムに分散しているデータを収集・整形し、分析可能な形で社内のユーザー(社員)に届ける。
【主な担当業務】 データ集積システムの構築に関わる連携バッチの開発やデータマートの作成業務が中心です。 各部署の利用者から上がってくる要望や作業依頼を実現するための要件ヒアリングや開発、運用作業を行います。 また利用者からの要望に先んじてシステム改善を行うための開発も行います。
-
■作業環境__:Windows/Mac選択可
■開発環境
言語____:Python,SQL
DB____:MySQL,BigQuery
FW____:Spark
環境・OS_:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール___:Tableau,GitHub
その他___:
■体制____:4人~10人
■開発工程__:要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運用・保守
■現場雰囲気_:
■人物像___:・前向きでオープンなコミュニケーション ・チャレンジ精神、成長意欲 ・技術が好き
■性別____:不問
■期間____:即日
■就業時間__:10:00~19:00
■勤務地___:半蔵門駅
■勤務地補足_:※基本リモート、週1出社の可能性あり-
■平均稼働__:160時間前後
■時間幅___:140時間~ 180時間
■条件____:中間割
■服装____:カジュアル
■営業コメント:本企業は、「日本一働きたい」会社としても選べばれている会社です。 モダンな開発環境にて開発を推進しているため、スキルアップにもぴったりな現場です。
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
GCP|経験5年|データ基盤構築支援|クラウドエンジニア
業務委託(フリーランス)
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。
一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。
インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。
社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて
モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
【分析基盤エンジニア】データ利活用を推進するETL/ELT処理開発、DWH構築などのデータ基盤開発支援
業務委託(フリーランス)
AWSAzureGoogle Cloud Platform
サーバーサイドエンジニア
作業内容 エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。 ◆業務内容の詳細◆ Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用 Apache Sparkを利用したETL処理の開発 各サービス開発チームのデータエンジニアリングの支援 ◆今後の進展について◆ 昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。 それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。
【Node.js/AWS/リモート併用可】鉄道会社向けアプリ保守開発
業務委託(フリーランス)
JavaScriptNode.jsAWS
サーバーサイドエンジニア
作業内容 鉄道会社向けアプリ保守開発案件となります。
アプリの改修、小規模開発、運用保守等をご担当いただきます。
【PM/フルリモート】通信企業向けポイントシステム開発案件
業務委託(フリーランス)
AWS
サーバーエンジニアPM
作業内容 ・大手通信企業向けポイントシステムの一部機能の開発にて プロジェクトマネジメント業務および要件定義に携わっていただきます。
・AWS上でSpark on EMR環境を構築、クライアントアプリから使えるようAWSのFargate上で動かすことを想定しています。
Python データ分析及びバックエンド開発業務(リモート)
業務委託(フリーランス)
PythonSQLTensorFlow
バックエンドエンジニア
作業内容 ・データ分析(データの前処理、クレンジング、変換)
・モデリング
・SQLを用いたデータベース操作
・PythonによるAPI開発
Java / Linux など アプリの新基板への移行・コンテナ化の支援
JavaPythonWindowsLinuxHadoopSparkOpenShiftApacheKafkaKubernetes
作業内容 オンプレミスの大規模データ収集基板構築に伴い、アプリケーションの新基板への移行/アプリケーションのコンテナ化を支援していただける方を募集いたします。
アプリケーションの設計、開発、テストがメイン業務となります。
アプリ設計、データ投入、環境利用等で分散FS(Hadoop)の構成について考慮する必要があるため、Hadoop環境の利用経験があればよりマッチいたします。
<業務内容>
・RDBからデータ取得を行うアプリケーションを、DWH(Hadoopベース)からデータ取得を行うように改修
→改修のための設計、開発、テスト
・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)
<開発環境>
・Java
・Hadoop(Cloudera)
・Apache kafka
・Apache spark
・Kubernetes/OpenShift/vCenter
<備考>
現状リモートワーク
新型コロナウイルス感染症の終息後は出社予定
<基本時間>
9:00~18:00
SQL ヘルスケア スマホアプリ開発SE
業務委託(フリーランス)
SQLAWSLambda
SE
作業内容 ヘルスケア企業向けにリリースしたスマホアプリにおいて、バージョンアップにおける開発対応を行っていただきます。
基盤はAWS、開発手法はアジャイルとなります。(一部、AWSにおける運用保守を行っていただく可能性もございます)
<備考>
リモート頻度は週1~2回
<基本時間>
9:00~18:00
【DBエンジニア】PythonでのDBアクセスプログラミング
業務委託(フリーランス)
PythonAWSGoogle Cloud PlatformRedshiftBigQuery
作業内容 大手製造メーカー様案件で、データ解析・データ解析のプログラミング
~DBアクセスプログラミングを担当していただきます。
※参画いただいた後は、相談の上プロジェクトの中でその他の役割も
担って頂く可能性もございます。
【Python/機械学習】Databricksを用いたデータ基盤構築・活用
業務委託(フリーランス)
PythonSQL
データサイエンティスト
作業内容 上位受託でお客様向けにデータ基盤の構築をご支援しており、追加のご依頼・ご相談などをいただいている状況です。
PoCとして様々なテーマを扱う予定で、画像解析、自然言語処理、時系列解析などのテーマもスコープに入る想定で、
主にDatabricksを用いたデータ基盤構築・活用に向けた推進などをお任せする予定です。
【Unity/Unreal Engine】ゲームのエフェクトデザイン業務
業務委託(フリーランス)
UnityUnreal Engine
作業内容 ゲームの開発/運営を行っている現場で、
主にエフェクトデザイン業務をお願い致します。
中でもパーティクルエフェクトに関する作業を中心にお願い致します。
【Python/AIエンジニア】探索型BIツール開発におけるデータサイエンティスト
業務委託(フリーランス)
PythonHadoopSparkTableau
データサイエンティストAIエンジニア機械学習エンジニア
作業内容 [ポジション]:AIエンジニア
自社で探索型BIツールを開発しており、そこにおける人材を募集
・検索・機械学習エンジンの開発・実装、および性能改善
・自然言語処理を使用した検索エンジンの開発
・大規模分散処理を伴う汎用的な機械学習エンジンやモデルの開発
【SE/Java】ガス会社様向けシステム開発
業務委託(フリーランス)
JavaSpring
サーバーサイドエンジニアSE
作業内容 ガス会社様向けシステムにおける技術的な調査と基本設計~開発(構築)~テストをしていただきます。
【Python/AWS】データ連携アプリ開発案件※フルリモート
業務委託(フリーランス)
PythonAWSFargate
サーバーサイドエンジニア
作業内容 開発中のシステムに対する追加機能の設計実装となります。
・工程:アプリケーション設計~総合テスト
【Go/フルリモート】データ分析基盤開発支援案件
業務委託(フリーランス)
PythonSQLGoC#ScalaLinuxMySQLPostgreSQLRedisCassandraSparkAzureGitJIRA
作業内容 ・データ分析基盤及びETL基盤のシステム開発支援に携わっていただきます。
・下記作業をおまかせいたします。
-システムアーキテクチャの検討・選定・設計・実装
-分散処理基盤の開発
Dynamic365/インタフェース(IF)開発支援
作業内容 ・IF各種設計書作成
・MS Fabric環境での実装(検証及びテストも含む)
・その他上記に付随する業務
【Python】クラウド環境上でデータ関連開発経験のある方向け!(一部リモート)データエンジニア【直接取引】
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【データマイニング/Python】広告配信プロダクトプラットフォーム開発案件
業務委託(フリーランス)
C++PythonSQLSparkGitHubBigQueryHive
データサイエンティストデータベースエンジニア
作業内容 ・自社広告配信プロダクトの100億レコード以上/日のログを分析し
広告配信の最適化する業務に携わっていただきます。
・KPI(CPCなど)最適化の改善及び運用をご担当いただきます。
【AWS/リモート併用】転職支援サービス開発の案件・求人
業務委託(フリーランス)
PythonNode.jsSparkAWSAzureDockerApacheGoogle Cloud PlatformCDKDevOps
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
・インフラエンジニアとして、インフラの設計・開発・テストから運用・保守まで、全体をエンド・ツー・エンドで担当・リード
・AWSやGCP上でのデータ処理やクエリーワークロードの設計、デプロイ、監視プロセス・ツールの簡素化と強化
・マーケティング・UXデザイン・業務企画・事業開発・カスタマーサービス・営業等と連携し、クロスファンクショナルなチームでの業務推進
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Scala/Java/Pythonなど】大手広告代理店におけるデータ基盤の開発、運用、保守の求人・案件
業務委託(フリーランス)
JavaPythonSQLScalaSparkAWSDockerApacheGitHubSnowflakeKubernetes
作業内容 【業務内容】
大手広告代理店が展開しているインターネット広告代理店業における、膨大な広告データを収集・蓄積したデータレイクからデータを展開するためのデータ基盤(ETL処理、DWH、DM)の開発、運用、保守をお願いします。
【ポイント】
データレイクが取り扱うデータ量は数十TB/月を誇り、毎日数10億単位のレコードを蓄積しているため、そんな大規模データと向き合った開発にチャレンジすることができます。複数のプロダクトを管理しているチームのため、様々な技術を習得することができます。
【開発チームと配属先について】
当事業部には現状で約60名のエンジニアが在籍しており、複数のチームに分かれて開発を進めています。
今回お願いしたいポジションはサーバサイドエンジニアです。
チームには現在18名のエンジニアが在籍しています。
また、複数のプロダクトを管理しているチームのため、担当領域ごとにグループ分けをしています。
Infeed領域の広告運用のためのプロダクトを開発するグループインターネット広告関連データをデータレイクに蓄積するシステムを開発するグループインターネット広告関連データが蓄積されたデータレイクを用いたデータ基盤を開発するグループ機械学習を用いたプロダクトを開発するグループ掲載情報や実績情報を出力・レポーティングするための分析用プロダクトを開発するグループ
【技術キーワード】
ApacheSparkAWS GlueSnowflakeデータレイク/データウェアハウス/データマート
【Python/リモート併用】AI×SaaSプロダクトのバックエンドの開発の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
バックエンドエンジニア
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをリリースし、
エンタープライズとの契約が急激に増えている中で、
多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、
集計後、データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【日本語ネイティブの方、活躍中!】
【20代・30代・40代、活躍中!】
【出社可能な方、活躍中!】
【Python】データーレイク開発の求人・案件
業務委託(フリーランス)
PythonLinuxAWSDockerGitRedshift
作業内容 概 要:
世界各国で利用されるオンラインサービスにおけるデータ分析基盤の開発運用支援をお願い致します
【ITアーキテクト/一部リモート】大型カーボンニュートラルプロジェクト
作業内容 企画,コンサルティング,ディレクション,データ分析
大型カーボンニュートラルプロジェクトに携わって頂きます。
・データプラットフォームのシステムアーキテクチャの作成
・システム開発を行なう上で必要なOSSを中心とした技術要素の選定
New【Python/SQL】データ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制になります。【募集背景】新バージョンの機能追加が急務であり、エンジニアリソースが不足しているため。【開発環境】・開発言語: Python、SQL・DB: Aurora(PostgreSQL互換)、Redshift・検索エンジン: Amazon Elasticsearch Service・ライブラリ・フレームワーク:Pandas、Numpy、Dask・インフラ: Amazon Web Services・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Python/フルリモート可能】Saasプロダクトデータ基盤構築の案件・求人
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 =====
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・社会人経験必須
・外国籍の場合、JLPT(N1)もしくはJPT700点以上のビジネス上級レベル必須
・週5日稼働必須
・エンジニア実務経験3年以上必須
=====
★本案件の最新の状況は、担当者までお問合せ下さい。
★期間:随時~
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
※20代〜30代が中心で活気ある雰囲気です。
※成長意欲が高く、スキルを急速に伸ばしたい方に最適
※将来リーダーを目指す方歓迎
【Python/JavaScript】AI診断サービス開発案件
業務委託(フリーランス)
JavaScriptPython
フロントエンドエンジニアUI・UXデザイナー
作業内容 ・BtoB (AI診断)サービス開発に携わっていただきます。
・下記を行っていただきます。
-UIUXの設計構築からサービス実装
-ご希望に応じてフルスタックに関わっていただきます。