【AWS/Python】データ連携アプリ開発
業務委託(フリーランス)
PythonAWSFargate
バックエンドエンジニア
作業内容 同社クライアントのDX事業会社様の案件になります。
現在開発中のシステムに対する追加機能の設計実装をお任せ致します。
工程:アプリケーション設計~総合テスト
【Python】Lob分析サービス開発運用
業務委託(フリーランス)
PythonRedisHadoopSparkAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【概要】
TVなどの操作Logをもとにランキングなどを出力するサービスの開発
【開発環境】
Python
React.js
DynamoDB
AWS(Athena、lambda、APIGatewayなどの各種サービス)
【主に行う業務】
AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発を行っていただきます。
【求める人物像】
・勤怠/健康状態に問題がなく、中長期的に業務に携わっていける方
・コミュニケーション能力のある方
・ハウスルールなど遵守しつつ業務を遂行できる真面目で責任感のある方
【作業工程】
開発、構築~
【場所】
大崎駅
※フルリモート
【勤務時間】
9:00~18:00
【精算】
140-180h
【面談】
2回
【備考】
・服装:ビジネスカジュアル
※週5日〜OKの案件です!
【Python】自社サービスSaas|~90万|フルリモート
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAWSDockerJIRAGitHubRedshiftAuroraCircleCIElasticsearchLambda
データベースエンジニア
作業内容 在庫最適化システムを支えるデータ基盤の構築をお任せいたします。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【Python/20代30代活躍中】Lob分析サービス開発運用
業務委託(フリーランス)
PythonRedisHadoopSparkAWSReactAthenaLambda
サーバーサイドエンジニア
作業内容 【概要】
TVなどの操作Logをもとにランキングなどを出力するサービスの開発
【開発環境】
Python
React.js
DynamoDB
AWS(Athena、lambda、APIGatewayなどの各種サービス)
【主に行う業務】
AWSインフラ構築または、Pythonを用いたサーバアプリケーション開発を行っていただきます。
【求める人物像】
・勤怠/健康状態に問題がなく、中長期的に業務に携わっていける方
・コミュニケーション能力のある方
・ハウスルールなど遵守しつつ業務を遂行できる真面目で責任感のある方
【作業工程】
開発、構築~
【場所】
大崎駅
※完全リモート
【勤務時間】
9:00~18:00
【精算】
140h~180h(スキル見合い)
【面談】
2回
【備考】
・服装:ビジネスカジュアル
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・週5日稼働できない方
--------------------------------------------------------
New【分析基盤エンジニア】データ連携基盤検証環境構築の求人・案件
業務委託(フリーランス)
SparkApacheSnowflakeKafkaKubernetes
作業内容 今後の世界的な課題であるエネルギー問題に対するシステム的な取り組みとなります。そのため社会意義の高い要件を新しい技術領域で対応していく事になります。現在、国内の一部地域を利用した分散電源のデータを共有化するためデータ連携基盤の構築が進められております。技術的な背景はクラウド・DWHの技術的な知見が必要となります。業務設計は出来ておりますが、アーキテクチャー設計は出来ていないため、抽象的な要件の非機能要件化を進めて頂きます。
【Pythonなど】Saasプロダクトデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Python/フルリモート】データ分析基盤及びETL基盤・システム開発支援案件
業務委託(フリーランス)
PythonSQLGoC#ScalaLinuxMySQLPostgreSQLRedisCassandraSparkGitJIRAGoogle Cloud PlatformKubernetesElasticsearch
作業内容 ・データ分析基盤及び、ETL基盤の開発、システム開発に携わっていただきます。
・システムアーキテクチャの検討、選定及び設計、実装、ビッグデータを分析(加工)するための分散処理基盤の開発を行っていただきます。
・主にPython・Goを用いて開発をご担当いただきます。
Python 大手通信系企業内の内製開発(ETLチーム)
作業内容 以下業務をご対応いただきます。
・SEからのインプットを基に詳細設計
・ETLコーディング
・ワークフローシナリオ実装
・UT観点項目作成
・UTスクリプト作成
・UT実施
・必要に応じてシミュレーター/スタブ開発
※※こちらの案件は現在募集を終了しております※※
【Python】通信会社向け販促システム開発案件
業務委託(フリーランス)
PythonMySQLHadoopSparkApache
作業内容 ・通信会社向け販促システム開発に携わっていただきます。
・主に下記作業をご担当いただきます。
-Webスクレイピング
-追加機能開発
・フルリモートでの作業を想定しております。
※キャッチアップ期間の1,2週間は出社いただき、その後リモート作業になる
想定です。
Java / Python / Go フルスタックエンジニア募集
JavaPythonGoHadoopSparkOpenShiftApacheKafkaKubernetes
フルスタックエンジニア
作業内容 大規模データ収集基盤構築(オンプレにて構築)に伴い、既存システム機能とアプリケーションの新基盤への移行/アプリケーションのコンテナ化を支援していただける方を募集いたします。
・新環境(分散FS環境)向け機能開発、既存機能の新環境向け修正
・アプリケーションの改修、機能追加
・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)、運用機能の開発
<開発環境>
・Java
・Hadoop(Cloudera)
・Apache kafka
・Apache spark
・Kubernetes/OpenShift/vCenter
<備考>
原則フルリモート
出社の可能性もあり
<基本時間>
9:00~18:00
【Python/SQL】自社サービスSaaSのバックエンド(データ基盤) フルリモート可能
業務委託(フリーランス)
PythonSQLSparkAWS
AIエンジニアバックエンドエンジニア
作業内容 ■業務内容
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、
エンタープライズとの契約が急激に増えている中で、
非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【データアナリスト】データ抽出/モデリング案件
業務委託(フリーランス)
PythonSQLRSparkPyTorchTensorFlow
データサイエンティストデータアナリスト
作業内容 データアナリストとして下記作業をお任せします。
- 各種データの抽出、加工、分析、レポート作成、BI構築
- データとビジネスを掛け合わせた仮説設定、予測、検証
- 重回帰、k-means、決定木などの手法を用いた高度分析
- Python、R等を用いた機械学習、深層学習、強化学習等の高度なモデリングの設計、実装
- IoTデータや動画などの特殊なデータ活用
【Python】データ分析及びDB構築移行案件
業務委託(フリーランス)
JavaPythonSparkAWSDockerJIRA
作業内容 ・Pythonを用いたデータ分析およびDB構築、移行に携わっていただきます。
・主に下記作業をご担当いただきます。
-不動産情報サービス企業様が蓄積している大量データの分析
-DB構築やデータ移行に関わるデータ調査、データクレンジング、名寄せ処理
-AWSのマネージドサービス(Glue、Lambda、MWAA等)を用いたデータレイク、
データウェアハウス構築作業
【Python/Azure】分析基盤システム開発支援
業務委託(フリーランス)
PythonSQLSparkAzure
作業内容 小売業向けの基盤システム開発。
※具体的な詳細は、ご面談の際にお伝えします
【Go/フルリモート】クラウドサービス・Webアプリケーション開発支援案件
業務委託(フリーランス)
PythonSQLGoC#ScalaLinuxMySQLPostgreSQLRedisCassandraSparkGitJIRAGoogle Cloud PlatformKubernetesElasticsearch
作業内容 ・電帳法、インボイス、会計、販売管理関連の既存サービスに関する設計(機能追加)及び実装に携わっていただきます。
・Goを用いた開発をご担当いただきます。
・状況に応じてEDIサービス、DB設計などもご担当いただく可能性がございます。
【Azure】在庫管理システムの構築案件/フルリモート
作業内容 大手小売り企業様にての業務となります。
在庫管理等の分散処理システムをHadoop on Sparkで組んでおり
DMCから逆輸入による導入を実施して頂きます。
【体制】
・リーダー:一名 (hadoop有識者、テックリード)
・SIer内hadoopスペシャリストに相談可能
・オフショアメンバー(中国)側と連携して進める。
【商流】
某大手小売流通→大手SIer→同社
【Pythonリモート】某サービスSaasのデータ基盤開発
作業内容 在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、データストアに投入する機構の構築に携わっていただきます。
【AWS/フルリモート】エンドユーザー向けAWS基盤の設計レビュー・改善・実装・メンテナンス
作業内容 ・既存のAWS基盤の調査改善
・ETL環境運用作業(テーブル追加、カラム変更程度)
【Python/AWS】BigData領域のWeb開発(フルリモート)
業務委託(フリーランス)
PythonDynamoDBAWSAmazon S3
バックエンドエンジニア
作業内容 AWSクラウドサービスを利用して、スケーラブルなデータパイプラインの設計と構築を行います。
Pythonを使用してデータ収集、データ処理、データクレンジングのスクリプトを開発します。
ビッグデータ技術(Hadoop, Sparkなど)を用いて大規模データセットのバッチおよび、リアルタイム処理を実行します。
ETLプロセスの最適化を行い、データ品質とデータアクセスの向上を図ります。
【Python】Saasプロダクトデータ基盤構築
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAWSDockerJIRAGitHubAuroraLambda
作業内容 テックビズなら記帳代行無料!充実のサポートで安心して参画していただけます!
【業務内容】
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
顧客からの数億レコードにもなる
大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
【開発環境】
・開発言語:Python、SQL
・DB:Aurora(PostgreSQL互換)、Redshift
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ:AWS
・AWS製品:ECS、S3、StepFunctions、Lambda、CloudWatch
・環境、ツール:Docker、GitHub、Jira、Slack、CircleCI、Sentry
【精算幅】140-180h
【面談】1回
【勤務地】リモート
【備考】
・服装:自由
・就業時間:9:00-18:00
※週5日〜OKの案件です!
※実務経験1年以上お持ちの方が対象の案件です!
【Python/AWS/フルリモート可能】調剤薬局向けサービス管理ツールの案件・求人
業務委託(フリーランス)
PythonHadoopSparkAWS
作業内容 ===========
※重要※
▼必ずお読みください▼
【必須要件】
・20~40代までの方、活躍中!
・日本語ビジネスレベル必須
・週5日稼働必須
・実務経験3年以上必須
===========
◆業務概要
・RDBのデータベース設計
・GlueJobでPythonを利用したETL処理の設計・開発
・APIGateway、Lambdaを利用したAPI開発
調剤薬局向けサービスを複数提供している企業にてサービスを総括的に管理する管理コンソールの開発業務をご担当頂きます。
管理コンソールに必要な機能の集約、追加実装等をお願い致します。
◆就業形態について
現状、開発メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。
◆補足
現場チームについては、
様々な分野での経験を持つ少数精鋭のメンバーが集まっております。
他部署を含め業務委託のエンジニアも複数名在籍しており、社員エンジニアと垣根のない働きやすい環境です。
【AWS/Python】需要予測ジック開発/構築案件
業務委託(フリーランス)
PythonSQLAWSGit
データサイエンティストインフラエンジニアデータベースエンジニア
作業内容 需要予測のためのロジック開発、実装(AIモデル/ルールベース)をしていただきます。
【DB/リモート】大量に蓄積されたデータとAIを駆使して改善するサービスの開発を担当
業務委託(フリーランス)
PythonSQLScalaHadoopSparkBigQuery
作業内容 ・データサイエンティストと協働したAIプロジェクトの推進
・画像や動画など、広告クリエイティブにおけるデータ処理、学習モデル化
・最適化アルゴリズム、外部ツール連携、データ解析など、必要アセットの調査研究・検証
・AIを駆使し、現広告業務へ付加価値をつける機能・システムの考案・開発
・機械学習モデルのサービング
【データエンジニア】データ基盤構築関連案件
業務委託(フリーランス)
PythonSQLSparkGitHubBigQuery
データサイエンティストデータベースエンジニア
作業内容 ・データエンジニアとしてデータ基盤構築関連のプロジェクトに携わっていただきます。
・担当範囲はスキルや経験および進捗状況により変動いたします。
Python / SQL データ分析及び, システムデータ分析基盤構築支援
業務委託(フリーランス)
PythonSQLUnixSparkAWSDockerHive
作業内容 データ分析対応チーム、もしくはデータ分析基盤構築チームにて、AとBのいずれかをご対応いただく予定です。
A: 定型化されたデータ分析の実行(集計/加工/分析/可視化/アドホック対応など)
B: 関連するデータ分析基盤システム構築(インフラ,システム開発/仮想化/など)
・仕様や方針などは、A/B領域共にクライアント側で設定の上、後続対応を実施していただきます。
・Aについては、基本出社対応、Bについては状況に応じて出社を予定しております。
<関連システム/スキルマップ>
・Python, SQL, Excel
・AWS, Spark, Hive, Docker, RDS, UNIX他
<備考>
リモート or 現場常駐
現状、タスクに応じて50/50で対応中
【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonMySQLHadoopSparkAWSAzureDockerApacheGoogle Cloud PlatformKubernetes
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
New【Python】バックエンドエンジニアの求人・案件
業務委託(フリーランス)
PythonHadoopSparkAWS
バックエンドエンジニア
作業内容 エンドクライアントを支援するサービスのダッシュボードのデータベース設計、API開発、ETL処理の開発をする業務をお願いします。
[具体的な業務]
・RDBのデータベース設計
・Glue JobでPythonを利用したETL処理の設計・開発
・API Gateway、Lambdaを利用したAPI開発
・技術的知見からの、プロダクトオーナと協調した仕様策定
・AWS関連リソースのより積極的な活用
・git flowベースの開発進行
【Python/SQL】Saasのデータ基盤構築の求人・案件
業務委託(フリーランス)
PythonSQLSparkAWSDocker
作業内容 【概要】
・在庫最適化システムを支えるデータ基盤の構築
・Saasの新バージョンをこの春リリースし、エンタープライズとの契約が急激に増えている中で、非常に多くの機能改善要望や機能追加要望の相談増
・数億レコードにもなる大量のデータ加工をSQLやPythonを用いて作成、
集計後、データストアに投入する基盤の構築
・エンジニアとスクラムチームを形成し、スクラムイベントを通じて、開発メンバー全員でスプリントを消化していく体制
【工程】
基本設計 詳細設計 開発 単体テスト 結合テスト 総合テスト 運用
【開発環境】
・開発言語: Python、SQL
・DB: Aurora(PostgreSQL互換)、Redshift
・検索エンジン: Amazon Elasticsearch Service
・ライブラリ・フレームワーク:Pandas、Numpy、Dask
・インフラ: Amazon Web Services
・AWS製品: ECS、S3、Step Functions、Lambda、CloudWatch
・環境、ツール: Docker、GitHub、Jira、Slack、CircleCI、Sentry
【Ruby on Rails】アプリケーション開発支援案件
業務委託(フリーランス)
JavaScriptRubyLinuxMySQLRailsSparkNginxGitJenkinsVue.js
サーバーサイドエンジニア
作業内容 ・Ruby on Railsを用いたアプリケーション開発支援案件に携わっていただきます。
・主に開発及び運用保守作業をご担当いただきます。
【Python/SQL】データ基盤運用保守の求人・案件
業務委託(フリーランス)
PythonSQLLinuxAWSGoogle Cloud Platform
作業内容 Google Cloud / AWSを利用した商用稼働サービスのデータパイプラインの開発・保守運用と日々の運用業務から発生する課題の解決・改善
主要技術:BigQuery/Cloud Composer(Airflow)/Python/(一部Spark)
【直接取引】【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【Python/SQL】自社サービスSaaS(在庫管理)のバックエンド開発(データ基盤)
業務委託(フリーランス)
PythonSQLPostgreSQLSparkAurora
フロントエンドエンジニアAIエンジニアバックエンドエンジニア
作業内容 ■業務内容
在庫最適化システムを支えるデータ基盤の構築を行っていただきます。
自社サービスSaasの新バージョンをこの春リリースし、
エンタープライズとの契約が急激に増えている中で、
非常に多くの機能改善要望や機能追加要望が出てきています。
顧客からの数億レコードにもなる大量データの加工をSQLやPythonを用いて作成し、集計後、
データストアに投入する機構の構築に携わっていただきます。
社員エンジニアとスクラムチームを形成し、スクラムイベントを通じて、
開発メンバー全員でスプリントを消化していく体制になります。
【分析基盤エンジニア】データ利活用を推進するETL/ELT処理開発、DWH構築などのデータ基盤開発支援
業務委託(フリーランス)
AWSAzureGoogle Cloud Platform
サーバーサイドエンジニア
作業内容 エンドユーザー(企業)のDX化を支援するためにデータ事業の展開や社内のデータ利活用を推進する、ETL/ELT処理開発、DWH構築などのデータ基盤開発の責務を担っていただきます。 ◆業務内容の詳細◆ Databricks、Airflow、AWS Glueを利用したデータパイプラインの開発・運用 Apache Sparkを利用したETL処理の開発 各サービス開発チームのデータエンジニアリングの支援 ◆今後の進展について◆ 昨年夏頃にDatabricksを導入したばかりのため、既存基盤からの移行を実施し、全社横断データ基盤として活用していきます。 それに伴い、各サービス開発チームを中心とした分散オーナーシップ型データ基盤開発組織化の推進と全社横断的なデータマネジメントに注力していきます。
【直接取引】【Python】(一部リモート)データエンジニア(クラウド環境上でデータ関連開発経験のある方)
業務委託(フリーランス)
PythonHadoopSparkAWSAzureApacheGoogle Cloud Platform
PL
作業内容 某大手通信キャリアが提供する販促プログラムにおいて、加盟店(飲食店、小売等)が
利用するシステム(クーポン入稿、ターゲティング設定、配信効果分析など)の
データ関連の開発および、顧客企業との仕様調整・実現性検討を行って頂きます。
<開発環境>
言語:Python (一部 Javaもあり)
フレームワーク:gRPC, OpenAPI
インフラ:AWS Athena, AWS Redshift, MySQL, Apache Airflow, Docker,bazel, github
クラウド:AWS
【Python/SQL / ~40歳まで】不動産検索サービスのデータ基盤システム運用開発・データマート作成
業務委託(フリーランス)
PythonSQLWindowsMySQLSparkAWSGitHubGoogle Cloud PlatformBigQueryTableau
作業内容 テックビズなら記帳代行無料!仕事に集中して取り組んでいただけます。
■仕事内容__:
データ集積システムの開発・運用に関連するエンジニアリング業務 チームの役割: 各種システムに分散しているデータを収集・整形し、分析可能な形で社内のユーザー(社員)に届ける。
【主な担当業務】 データ集積システムの構築に関わる連携バッチの開発やデータマートの作成業務が中心です。 各部署の利用者から上がってくる要望や作業依頼を実現するための要件ヒアリングや開発、運用作業を行います。 また利用者からの要望に先んじてシステム改善を行うための開発も行います。
-
■作業環境__:Windows/Mac選択可
■開発環境
言語____:Python,SQL
DB____:MySQL,BigQuery
FW____:Spark
環境・OS_:GCP (Google Cloud Platform),AWS (Amazon Web Services)
ツール___:Tableau,GitHub
その他___:
■体制____:4人~10人
■開発工程__:要件定義|基本設計|詳細設計|実装・構築・単体試験|結合試験|総合試験|受入試験|運用・保守
■現場雰囲気_:
■人物像___:・前向きでオープンなコミュニケーション ・チャレンジ精神、成長意欲 ・技術が好き
■性別____:不問
■期間____:即日
■就業時間__:10:00~19:00
■勤務地___:半蔵門駅
■勤務地補足_:※基本リモート、週1出社の可能性あり-
■平均稼働__:160時間前後
■時間幅___:140時間~ 180時間
■条件____:中間割
■服装____:カジュアル
■営業コメント:本企業は、「日本一働きたい」会社としても選べばれている会社です。 モダンな開発環境にて開発を推進しているため、スキルアップにもぴったりな現場です。
※以下に該当する方からの応募はお断りしております。
なお、選考を進めるにあたってスキルシートが必要です。
--------------------------------------------------------
・40代以上の方
・外国籍の方(永住権をお持ちの方は問題ございません)
・週5日稼働できない方
--------------------------------------------------------
GCP|経験5年|データ基盤構築支援|クラウドエンジニア
業務委託(フリーランス)
PythonLinuxMySQLDjangoSparkFlaskAWSAzureApacheGoogle Cloud PlatformBigQueryTerraformKubernetes
作業内容 大手資本が介入したAIスタートアップです。特定の企業へのAIではなく業界全体の改善を目指したソリューションとなります。
一言でいうと、本屋さんがなくなったら困るよね!みんなで頑張ろう!という想いが大事です。
インフラ担当としてクラウド機能の活用からコスト面の考慮、BIに至るまで全般的なアーキテクト面をお任せいたします。
社内には研究開発チームやデータエンジニアリングを行う方(データサイエンティスト)もおりますので、その方々に向けて
モデル開発/機械学習のためのインフラ面の構築もお任せいたします。
【Python/AIエンジニア】探索型BIツール開発におけるデータサイエンティスト
業務委託(フリーランス)
PythonHadoopSparkTableau
データサイエンティストAIエンジニア機械学習エンジニア
作業内容 [ポジション]:AIエンジニア
自社で探索型BIツールを開発しており、そこにおける人材を募集
・検索・機械学習エンジンの開発・実装、および性能改善
・自然言語処理を使用した検索エンジンの開発
・大規模分散処理を伴う汎用的な機械学習エンジンやモデルの開発
Java / Linux など アプリの新基板への移行・コンテナ化の支援
JavaPythonWindowsLinuxHadoopSparkOpenShiftApacheKafkaKubernetes
作業内容 オンプレミスの大規模データ収集基板構築に伴い、アプリケーションの新基板への移行/アプリケーションのコンテナ化を支援していただける方を募集いたします。
アプリケーションの設計、開発、テストがメイン業務となります。
アプリ設計、データ投入、環境利用等で分散FS(Hadoop)の構成について考慮する必要があるため、Hadoop環境の利用経験があればよりマッチいたします。
<業務内容>
・RDBからデータ取得を行うアプリケーションを、DWH(Hadoopベース)からデータ取得を行うように改修
→改修のための設計、開発、テスト
・新基盤移行に伴う運用面対応(システム運用設計や手順整備、セキュリティ設計等)
<開発環境>
・Java
・Hadoop(Cloudera)
・Apache kafka
・Apache spark
・Kubernetes/OpenShift/vCenter
<備考>
現状リモートワーク
新型コロナウイルス感染症の終息後は出社予定
<基本時間>
9:00~18:00
【Node.js/AWS/リモート併用可】鉄道会社向けアプリ保守開発
業務委託(フリーランス)
JavaScriptNode.jsAWS
サーバーサイドエンジニア
作業内容 鉄道会社向けアプリ保守開発案件となります。
アプリの改修、小規模開発、運用保守等をご担当いただきます。
【PM/フルリモート】通信企業向けポイントシステム開発案件
業務委託(フリーランス)
AWS
サーバーエンジニアPM
作業内容 ・大手通信企業向けポイントシステムの一部機能の開発にて プロジェクトマネジメント業務および要件定義に携わっていただきます。
・AWS上でSpark on EMR環境を構築、クライアントアプリから使えるようAWSのFargate上で動かすことを想定しています。