【140億円調達/命の現場を支える手触り感】データエンジニア/AIで医薬品サプライチェーンの変革
800~1200万
株式会社カケハシ
東京都港区
800~1200万
株式会社カケハシ
東京都港区
データサイエンティスト
データベースエンジニア
データエンジニア
■業務概要 薬局における在庫管理・発注業務や流通といった業務はコンビニなど他業界と比較すると、勘と経験に多くの部分を依存しており、テクノロジーによる最適化の介在余地を多く残しています。同社では、AIを活用した在庫と発注の最適化サービスや薬の二次流通への介入などを通じて、業界の変革を目指します。 ■詳細について データエンジニアとして、以下のプロダクト開発および技術リードを担当いただきます。 顧客の利用価値向上および、さらなる店舗導入に向けたスケール性の確保、開発をスピードアップするための開発者体験の向上などプロダクトの成長をエンジニアという立場から担っていただきます。 主に以下内容に取り組んでいただきます。 ・データプラットフォームやデータパイプラインの設計と構築 ・医薬品サプライチェーン領域におけるデータの利活用の推進 ・高信頼性システムの設計と開発推進および運用 ■チームについて AI在庫管理開発チームは内部でさらに3-8人程度のチームに分かれてスクラムを基本とした開発を行っています。 それぞれのチームにはプロダクトマネージャーやデザイナーなどチームの役割に合わせたクロスファンクショナルなチームとして構成しています。 またこれらのチームは事業やプロダクトの状況に合わせ柔軟に変化しています。 ■求める人物像 ・「患者様により良い医療体験を(テクノロジーを駆使して)ご提供する」という思いに共感いただける方 ・個の力ではなく、チームの力を最大化させることにモチベーションを感じる方 ・あるべき論だけではなく、現状を踏まえたプロジェクト推進ができる方 ・実際に手を動かし実行してくれる方 ・未利用技術のキャッチアップなど新しい技術などに好奇心を持ち積極的に挑戦いただける方 ■開発環境 <利用技術> ・AWS ・Glue ・AppSync (GraphQL) ・Aurora ・Lambda ・Cognito ・ECS(Fargate) ・Python ・TypeScript ・Terraform <周辺ツール> ・GitHub ・Datadog ・Sentry ・Databricks
必須(MUST) ・データ基盤の設計経験、特に全体のデータアーキテクチャの設計経験 ・データサイエンティストやデータアナリストとのデータ設計経験 ・可用性設計・信頼性設計・性能設計など、システムの安定維持のための設計の経験 ・長期にわたり稼働しているシステムの運用経験 歓迎(WANT) ・数人以上のチームを技術的にリードした経験 ・ステークホルダーと協議しながら仕様を決める経験 ・フレームワークやライブラリの技術選定の経験 ・自動テストの開発設計経験を含むテスト戦略の立案の経験
4年制大学
800万円〜1,200万円
東京都港区
リモートワーク可
最終更新日:
650~1000万
ミッション:大手クライアントのデータ利活用をリードし、データドリブンな意思決定を支援 小売・サービス・金融・通信など多種多様な業界において、データ分析基盤構築から、顧客分析、需要予測、BIによるKPI可視化まで、データ利活用をワンストップでリードします。ご経験と志向性に応じて、データエンジニアまたはデータサイエンティスト、あるいはその両方を担当します。 データ基盤構築(データエンジニア): データパイプライン、DWH、データマート、CDP、データベースなどの設計/構築、運用。 生成AI活用におけるデータ整備。 データ分析・提案(データサイエンティスト): 企業保有データ(ビッグデータ)の要件分析、機械学習などのモデル構築。 BIツールを用いたデータ可視化・ダッシュボードの利活用提案、分析結果に基づいたソリューション提案。 プロジェクトマネジメント: PMO / PM / PLとして、データ関連プロジェクトの上流から下流までを統括。 若手データエンジニア/データサイエンティストの育成・マネジメント。 ✨ ポジションの魅力 直受け100%の裁量: 大手クライアントからの直受け案件が100%であり、「言われた通りに仕事をする」ではなく「自ら提案を行っていく」がスタンダード。 ワンストップソリューション: 基盤構築、BI、データ分析、運用までワンストップでソリューションを提供し、社会価値創造に携われる。 PM/PL経験を活かせる: プロジェクトマネジメントと、ラインマネジメント(組織管理)の両方に携わるチャンスがある。 充実した学習環境: 270種類以上の資格取得支援制度、最新技術(生成AI、LLMなど)の知見を深める環境が充実。
必須要件(MUST) ①マネジメント/リード データ関連プロジェクトにおいて、PMO / PM / PL のいずれかの経験(年数不問)。 ②技術・実務経験 SQL・Pythonを用いたデータ分析、データコンサルタント、データマネジメント、データ基盤構築エンジニアのいずれかの実務経験を3年以上。 歓迎要件 Snowflake/BigQuery/Redshift等のDBからのデータ抽出経験、R/Python等のデータ分析・レポーティング経験、AWS/GCP/Azureの実務経験、生成AI/NLP/LLMに関する知見、統計・機械学習の知見、ラインマネジメント経験。 求める人物像 課題解決力、活発なコミュニケーション、最新技術の習得に貪欲な方、主体的に行動できる方。
テクノロジーコンサルティング事業、インキュベーション事業(新規事業開発)
400~600万
ミッション:大手クライアントのデータドリブンな意思決定を上流から支援 小売、サービス、金融、通信など、さまざまな業界の大手クライアントに対し、データ分析基盤構築から顧客分析、需要予測、BI可視化・レポーティングまで、幅広いデータ利活用をリードします。 業務範囲: データ分析基盤(DWH・DM)の設計/構築。 データの加工/集計/抽出、分析設計/実施。 機械学習モデル構築、ダッシュボード(BI)の設計/構築。 施策の実施と効果分析、生成AI活用におけるデータ整備。 プロジェクトへの関わり: 大手クライアント・大手SIerとのプロジェクトに、上流から下流まで全工程で伴走。 「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」スタンス。 使用技術: 言語:SQL, Python, R ほか クラウド環境:GCP, AWS, Azure DB・DP例:BigQuery, Redshift, Snowflake, Databricks ほか BIツール例:Tableau, Looker Studio, PowerBI ほか ✨ ポジションの魅力(詳細化) 成長機会: 実務経験の浅い方には、入社後最大2ヵ月程の座学研修(SQL, Tableau, Python, 統計など)を提供。微経験からデータ分析のプロフェッショナルへの第一歩を踏み出せる。 技術力と洞察力: データベース設計、クエリ最適化などの技術的スキルに加え、ビジネス課題を解決するためのデータの洞察力(インサイト)が磨かれる。 基礎能力向上: 日本トップクラスの大規模企業のプロジェクトを通じ、「きめ細かい」シゴトを行うビジネスマンとして大切な基礎能力が最高レベルで身につく。
必須スキル(MUST) 以下の両方の経験をお持ちの方。 ・IT業界での就業経験(2年以上) 以下いずれか必須(1年以上) ・システム開発経験(Python、Java、Reactなど) ・データ抽出 または データ分析の実務経験 ・データ構築の実務経験 歓迎スキル(WANT) 以下の経験・知識をお持ちの方は優遇いたします。 ①データ基盤/DWH経験: DWH・データ基盤構築、データマートの設計・開発、BigQuery・Amazon Redshiftなどを用いたビッグデータハンドリング業務。 ②分析スキル: SQLを用いたデータ業務経験、定量データを用いたデータ分析・レポーティング経験。 ③ツール経験: Power BI や Tableau におけるダッシュボード構築経験。 ④クラウド経験: GCP / AWS / Microsoft Azure いずれかの導入・開発・実務経験。 ⑤その他: デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)、特定の業界におけるビジネス知識。
テクノロジーコンサルティング事業、インキュベーション事業
600~900万
リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。
【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方
リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援
700~840万
スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験
【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験) └10人以上のプロジェクト参画のご経験(6か月以上) └概要設計または要件定義のご経験 └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方
人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他
600~1300万
主にサイバーセキュリティに係る企画・推進、インシデント対応等の業務をお任せします。ITインフラを担当している基盤グループと連携しITインフラ整備、新技術導入推進等の業務をご担当頂くこともございます。 【業務詳細】 ・サイバーセキュリティに係わる施策の戦略企画・推進 ・セキュリティインシデント対応 ・ベンダー管理や提案内容・成果物の精査 ・自社状況・動向からの経営層に対する提案等
【該当者歓迎】 ■ITインフラ(サーバー/ネットワーク/データベース)に関する経験者 ■一定規模以上のプロジェクトリーダー、マネジメント経験者 など 《魅力》 ■ JFEスチールの粗鋼生産量は国内2位(売上収益3兆7,160億円/連結) ■ 自動車・建設・鉄道・交通インフラなど多様な業界に鉄鋼製品を出荷 ■「東京スカイツリー」の鋼材供給もトップシェア ■ 社員が始業・終業時刻を自由に決められる制度や在宅制度あり ■ ビジネス講座・語学集中講座・長期語学留学などの研修制度も充実
■鉄鋼事業:薄板、厚板、形鋼、鋼管、ステンレス・特殊鋼、電磁鋼板、鉄粉などの鉄鋼製品の製造及び販売
500~900万
新規モバイル/PCクロスプラットフォームゲームプロジェクトにおける事業データ分析を担当いただきます。 日本市場でのサービス運営に必要なKPI(DAU、リテンション、課金率、ARPPUなど)のモニタリングや、インゲームデータを活用したユーザー行動・課金動向分析が主な業務です。 分析結果をもとに、事業戦略や運営施策の改善提案を行い、海外開発チームとの連携も含めてサービスの成長に貢献するポジションです。 具体的には下記の業務です。 ・ゲームKPIのモニタリングおよびレポート作成 ・インゲームデータを用いたユーザー行動分析(リテンション、課金動向など) ・事業課題の抽出と改善提案 ・データ収集、加工
必須経験・スキル ・ゲーム企業でデータアナリストとしてのプロジェクト管理経験 1年以上 ・Python、R、SQL、Tableau、Power BI等のBIツールの使用経験(使用経験とは、分析モデルを作りそれを使って分析ができるレベル) ・データ収集、加工、分析及びレポーティング経験 歓迎経験・スキル ・ゲームの開発経験、運用経験 ・ゲームログ分析経験 ・Data Visualization(Tableau、Power BIなど)の知識 ・外国語(韓国語、英語など) 人物像 ・ゲームビジネス理解をお持ちの方 ・データから戦略を提案できる力をお持ちの方
■PCオンラインゲームの開発及びサービスの提供 ■モバイルゲームの開発及びサービスの提供 ■パブリッシング事業 ■ポータルサイトの企画及び運営 1994年に韓国ソウル市で設立され、その後日本へ本社を移転いたしました。創業以来、良質なオンラインゲーム、モバイルゲーム及びソーシャルゲームを制作・開発、配信してまいりました。代表的なゲームタイトルである「メイプルストーリー」、「アラド戦記」、「カウンターストライク・オンライン」、「マビノギ」及び「サドンアタック」といった同社が提供
700~1000万
【職務内容】 「朝日新聞のデジタル版」は日本のニュース業界をリードする、月間約1.2億PVのニュースサービスです。朝日新聞(デジタル版)の分析基盤には、膨大なデータが集まっており、ビジネスの成果を最大化するための可能性が広がっています。 データアナリストは、朝日新聞(デジタル版)の分析基盤に蓄積された多様なデータを活用して、プロダクトの成長に向けた意思決定をリードすることがミッションです。データチームの一員として、各種分析や施策の効果検証、社内で広く利用されるダッシュボードの構築を担っていただきます。適性次第では分析ユニットのリーダーとして、アナリストの育成や分析プロジェクトの進捗管理を通じてデータ活用を推進していただきます。 【具体的な業務内容】 チーム内のデータエンジニアのほか、記者部門のメンバー、PdMやマーケターと連携しながら、以下のような業務に幅広く関わっていただきます。 ・各種プロダクトのKPI設計支援とモニタリング、KPIマネジメントの仕組みづくり ・アドホックなデータ分析を通じたプロダクトの課題特定と改善提案 ・A/Bテストを含む施策の効果検証の設計と検証 ・TROCCOとBigQueryを使ったデータマートのモデリングと最適化、実装と運用 ・TableauやLooker StudioなどのBIツールを用いたダッシュボードの構築・運用 ・ユニットメンバーのタスクマネジメント(求人ID:392373)
【必須】 ・ データアナリストとしての3年以上の実務経験 ・ SQLを使ったデータ抽出・集計・分析の経験 ・ データ分析を通じてプロダクトやサービスの改善をリードしてきた経験 【歓迎】 ・ データエンジニアリングの実務経験 ・ 少人数のチームマネジメントの経験 ・ TableauやLooker StudioなどのBIツールを使った可視化の経験
【スポーツ・文化・芸術、、 日本全国/老若男女を対象にした独自の販売戦略】 朝日新聞社では、新聞・デジタルメディア(朝日新聞デジタル)によるコンテンツ事業、展覧会などのイベント事業、不動産事業などの事業展開をしています。 一般紙として国内で大きなシェアを占めており、全国各地にあるテレビ朝日の系列局も一体となって、情報提供を行っています。
800~1200万
AI/ML領域における技術選定、アーキテクチャ設計、および開発チーム(3~5名想定)のリードを担当します。AIシステム全体のアーキテクチャ設計:自律型エージェント、RAG、ボイスボットなどが連携するマイクロ サービス全体の設計。・Vertex AI/Cloud Run/Vector Search等を組み合わせた高可用性・低レイテンシな推論基盤のグランドデザイン。2.MLOps / LLMOps の戦略策定と導入:・AIモデルの継続的な評価/改善/デプロイを自動化するパイプライン(CI/CD/CT)の設計と標準化。3.技術マネジメントと品質管理:・メンバーのコードレビュー、技術指導、採用活動への関与。・AIの回答精度(ハルシネーション対策)やセキュリティ基準の策定。
【必須要件】・WebアプリケーションまたはMLシステムのアーキテクチャ設計・選定の実務経験(テックリードとしての経験)。・3名以上のエンジニアチームにおけるPL/PM経験。・Python 等を用いたAI/MLプロダクト の本番運用経験(開発だけでなく、リリース後の運用・障害対応まで)。 【歓迎するスキル・経験】 ・大規模言語モデル(LLM)を活用したサービスの立ち上げからリリースまでのリード経験。 ・マイクロサービスアーキテクチャの設計・運用経験。 ・金融機関または高いセキュリティレベルが求められる環境でのシステム開発経験。
■銀行業務
800~1200万
全社的なデータ戦略に基づくデータ基盤(データレイクハウス)の設計・構築・運用、およびデータエンジニアチームのリードを担当します。 1.データプラットフォームのグランドデザイン: ・Google Cloud(BigQuery/GCS/Dataflow等)を活用した、拡張性と耐障害性に優れたデータ基盤の全体設計。・バッチ処理とストリーミング処理を統合したモダンなパイプラインの設計。2.データガバナンスとセキュリティ設計:・VPC Service ControlsやIAMを駆使した、金融レベルのセキュリティ設計。・個人情報保護法や金融規制に対応したデータカタログの整備、アクセス制御ポリシーの策定。 その他勤務条件欄にも記載
【必須要件】・クラウド(Google Cloud/AWS, Azure)における大規模データ分析基盤のアーキテクチャ設計・構築経験(5年以上目安)。・データモデリング(スタースキーマ/Data Vault等)の深い知識と実践経験。 ・エンジニアチームのリーダー経験、または技術的な意思決定の責任者としての経験。 【歓迎するスキル・経験】 ・金融業界におけるデータガバナンス、コンプライアンス(FISC等)に関する知識。 ・Infrastructure as Code (Terraform) を用いた大規模インフラの管理・運用経験。
■銀行業務
600~800万
Google Cloud (BigQuery, Cloud Storage) を中核としたデータ分析基盤・AI学習基盤の設計・構築・運用を担当していただきます。 1.データレイクハウスの構築:・非構造化データ(Bronze)から構造化データ(Gold) までのパイプライン設計。BigQueryとGCSを活用した効率的なデータ管理。2.データ収集パイプラインの開発:・Cloud RunやCloud Schedulerを活用した、外部サイトからのスクレイピング(データ取得)基盤の構築と運用。・基幹システムからのデータ連携(ETL/ELT)処理の実装。3.データガバナンスと品質管理:・機密性の高い金融データを安全に扱うためのセキュリティ設計(IAM、VPC Service Controls)およびデータカタログの整備。
【必須】・SQLを用いた複雑なデータ抽出/加工/集計の実務経験・Python 等のスクリプト言語を用いたデータ処理(ETL)の開発経験・クラウドベースのDWH(BigQuery, Redshift, Snowflake等)の設計/構築/運用経験 ・テーブル設計、パーティショニング、インデックス設計など、DBパフォーマンス・チューニングの知識 【歓迎】 ・Webスクレイピング(Selenium, Puppeteer等)によるデータ収集システムの構築経験 ・データレイク / データレイクハウスのアーキテクチャ設計経験
■銀行業務