RECRUIT DIRECT SCOUT リクルートダイレクトスカウト PRODUCED BY RECRUIT
RECRUIT DIRECT SCOUT リクルートダイレクトスカウト PRODUCED BY RECRUIT
エージェント求人

【データサイエンティスト】製造業DX推進のAIプラットフォーム企業「CADDi社」

780~1800

キャディ株式会社

東京都台東区, 大阪府大阪市, 愛知県名古屋市

職務内容

職種

  • データサイエンティスト

  • データアナリスト

  • データエンジニア

仕事内容

ソリューション部門で、エンタープライズ企業向けのソリューション提案から開発に必要なデータ抽出、加工、分析などに携わっていただきます。 データサイエンティストとしてだけではなく、顧客への提案やソリューション開発にも伴走いただきます。 <具体的な職務内容> ・CADDiに蓄積された製造業関連データ(図面、仕様書、諸元、不具合報告書、DR議事録、過去トラ、原価など)の収集、加工、分析 ・製造業クライアントの課題特定と、データ分析に基づいた改善提案・ソリューション開発 ・機械学習、深層学習などのAI技術を用いた予測モデル、異常検知システムの構築・運用 ・データ可視化ツールを用いた分析結果の報告・プレゼンテーション ・新しいデータ分析手法・AI技術のリサーチおよび導入 ・ビジネス部門と連携した、データドリブンな意思決定支援 入社後のイメージ まずはキャディの会社全体、Enterprise Solutionそれぞれのオンボーディングを受けていただきます。製造業未経験の方でもキャッチアップ可能な環境を用意しています。次に商談に同席しつつ、業界・顧客・プロダクト・ソリューションの理解を更に深めていただきます。顧客のCxOや部門責任者などにヒアリングし、課題の整理やソリューションの磨き込みを進めていただきます。セールス、カスタマーサクセス、データマネジメント、オペレーション等のチームと協業の上で、顧客課題の特定とソリューション設計、プライシング、提案を複数回重ねながら受注し、受注後は各部署と連携しながらデリバリを実施する流れです。提案フェーズでは、10社程のエンタープライズ企業のソリューション案件にオーナーシップを持って取り組んでいただきます。1社当たりおおむね数ヶ月〜半年での受注を想定しています。

求める能力・経験

  • SQL
  • Google Cloud Platform
  • 深層学習
  • 分析
  • クラウド
  • Python
  • データ分析
  • GCP

・データサイエンティスト、またはデータアナリストとしてのデータ分析経験が3年以上 ・Python、Rなどを用いたデータ分析、統計モデリングの実務経験 ・SQLを用いたデータベース操作経験 ・データ可視化ツール(Tableau, Power BIなど)の使用経験 ・ビジネスレベルの日本語能力 ・チームでの協働経験 ・製造業の業務知識(設計、生産、品質管理など) ・製造業におけるデータ分析経験 ・機械学習、深層学習に関する専門知識、実務経験 ・クラウド環境(AWS, GCP, Azureなど)でのデータ分析経験 ・大規模データの処理経験 ・英語力(ビジネスレベル) ・データサイエンティストとしての資格保有者

学歴

大学院(博士)、大学院(法科)、大学院(修士)、大学院(その他専門職)、大学院(MBA/MOT)、4年制大学

勤務条件

雇用形態

給与

780万円〜1,800万円

勤務時間

フレックスタイム制(承認制)(コアタイム10:00~17:00)

フレックスタイム制

休日・休暇

内訳:完全週休2日制、土曜 日曜 祝日

社会保険

健康保険 厚生年金 雇用保険 労災保険

備考

想定年収:780~1800万円 ①月給65万円~150万円 ② 固定残業手当 (時間外労働の有無にかかわらず、45時間分の時間外手当として支給) ③ 45時間を超える時間外労働分についての割増賃金は追加で支給

勤務地

配属先

転勤

東京本社

住所

東京都台東区

備考

※リモートワークと出社のハイブリッドスタイル

関西オフィス

住所

大阪府大阪市

備考

※リモートワークと出社のハイブリッドスタイル

住所

愛知県名古屋市

備考

※リモートワークと出社のハイブリッドスタイル

制度・福利厚生

制度

リモートワーク可

その他

制度備考

最終更新日: 

条件の近いおすすめ求人

  • エージェント求人

    【データエンジニア】1万店舗の購買データをGCP/BigQueryで基盤構築

    600~900

    • Python
    • 開発
    • Google Cloud Da...
    • プロダクト開発
    • Google BigQuery
    • Slack
    • クラウド
    • 店舗
    • コードレビュー
    • 品質管理
    • Datadog
    • Terraform
    • GCP
    • Google Cloud Pl...
    • Docker
    • 技術選定
    • dbt
    • AWS
    • アーキテクト
    • テックリード
    • 加工処理
    • ビッグデータ
    • SQL
    株式会社フェズ東京都千代田区
    もっと見る

    仕事内容

    リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。

    求める能力・経験

    【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方

    事業内容

    リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援

  • エージェント求人

    【データエンジニア候補】人材業界最大手のデータ活用基盤/内製開発・AWS・DWH

    700~840

    • Linux
    • テスト
    • プログラミング
    • 開発
    • Python
    • 詳細設計
    • 運用設計
    • クラウド
    • アーキテクチャ設計
    • Oracle
    • アーキテクト
    • 営業
    • スタッフ
    • マネージャー
    • DB設計
    • プロジェクト
    • PostgreSQL
    • AWS
    • システム開発
    • 運用保守
    • パートナー
    • チームリーダー
    • 要件定義
    • 対策実施
    • SQL
    スタッフサービスグループ(株式会社スタッフサービス・ホールディングス 等)東京都千代田区
    もっと見る

    仕事内容

    スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験

    求める能力・経験

    【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験)  └10人以上のプロジェクト参画のご経験(6か月以上)  └概要設計または要件定義のご経験  └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方

    事業内容

    人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他

  • エージェント求人

    【新規タイトル】データアナリスト|株式会社ネクソン

    500~900

    株式会社ネクソン東京都港区
    もっと見る

    仕事内容

    新規モバイル/PCクロスプラットフォームゲームプロジェクトにおける事業データ分析を担当いただきます。 日本市場でのサービス運営に必要なKPI(DAU、リテンション、課金率、ARPPUなど)のモニタリングや、インゲームデータを活用したユーザー行動・課金動向分析が主な業務です。 分析結果をもとに、事業戦略や運営施策の改善提案を行い、海外開発チームとの連携も含めてサービスの成長に貢献するポジションです。 具体的には下記の業務です。 ・ゲームKPIのモニタリングおよびレポート作成 ・インゲームデータを用いたユーザー行動分析(リテンション、課金動向など) ・事業課題の抽出と改善提案 ・データ収集、加工

    求める能力・経験

    必須経験・スキル ・ゲーム企業でデータアナリストとしてのプロジェクト管理経験 1年以上 ・Python、R、SQL、Tableau、Power BI等のBIツールの使用経験(使用経験とは、分析モデルを作りそれを使って分析ができるレベル) ・データ収集、加工、分析及びレポーティング経験 歓迎経験・スキル ・ゲームの開発経験、運用経験 ・ゲームログ分析経験 ・Data Visualization(Tableau、Power BIなど)の知識 ・外国語(韓国語、英語など) 人物像 ・ゲームビジネス理解をお持ちの方 ・データから戦略を提案できる力をお持ちの方

    事業内容

    ■PCオンラインゲームの開発及びサービスの提供 ■モバイルゲームの開発及びサービスの提供 ■パブリッシング事業 ■ポータルサイトの企画及び運営 1994年に韓国ソウル市で設立され、その後日本へ本社を移転いたしました。創業以来、良質なオンラインゲーム、モバイルゲーム及びソーシャルゲームを制作・開発、配信してまいりました。代表的なゲームタイトルである「メイプルストーリー」、「アラド戦記」、「カウンターストライク・オンライン」、「マビノギ」及び「サドンアタック」といった同社が提供

  • エージェント求人

    データアナリスト

    700~1000

    株式会社朝日新聞社東京都中央区
    もっと見る

    仕事内容

    【職務内容】 「朝日新聞のデジタル版」は日本のニュース業界をリードする、月間約1.2億PVのニュースサービスです。朝日新聞(デジタル版)の分析基盤には、膨大なデータが集まっており、ビジネスの成果を最大化するための可能性が広がっています。 データアナリストは、朝日新聞(デジタル版)の分析基盤に蓄積された多様なデータを活用して、プロダクトの成長に向けた意思決定をリードすることがミッションです。データチームの一員として、各種分析や施策の効果検証、社内で広く利用されるダッシュボードの構築を担っていただきます。適性次第では分析ユニットのリーダーとして、アナリストの育成や分析プロジェクトの進捗管理を通じてデータ活用を推進していただきます。 【具体的な業務内容】 チーム内のデータエンジニアのほか、記者部門のメンバー、PdMやマーケターと連携しながら、以下のような業務に幅広く関わっていただきます。 ・各種プロダクトのKPI設計支援とモニタリング、KPIマネジメントの仕組みづくり ・アドホックなデータ分析を通じたプロダクトの課題特定と改善提案 ・A/Bテストを含む施策の効果検証の設計と検証 ・TROCCOとBigQueryを使ったデータマートのモデリングと最適化、実装と運用 ・TableauやLooker StudioなどのBIツールを用いたダッシュボードの構築・運用  ・ユニットメンバーのタスクマネジメント(求人ID:392373)

    求める能力・経験

    【必須】 ・ データアナリストとしての3年以上の実務経験 ・ SQLを使ったデータ抽出・集計・分析の経験 ・ データ分析を通じてプロダクトやサービスの改善をリードしてきた経験 【歓迎】 ・ データエンジニアリングの実務経験 ・ 少人数のチームマネジメントの経験 ・ TableauやLooker StudioなどのBIツールを使った可視化の経験

    事業内容

    【スポーツ・文化・芸術、、 日本全国/老若男女を対象にした独自の販売戦略】 朝日新聞社では、新聞・デジタルメディア(朝日新聞デジタル)によるコンテンツ事業、展覧会などのイベント事業、不動産事業などの事業展開をしています。 一般紙として国内で大きなシェアを占めており、全国各地にあるテレビ朝日の系列局も一体となって、情報提供を行っています。

  • エージェント求人

    【BI/データエンジニア】名古屋/DX推進・Tableau構築(研修充実)

    430~750

    • 研修実施
    • ダッシュボード作成
    • データ分析
    • 目標設定
    • ヒアリング
    • Python
    • プロジェクト
    • コンサルティング業務
    • リーダー
    • 分析基盤構築
    • 分析
    • コンサルタント
    • BIツール
    • 決済サービス
    • 研修企画
    • 課題設定
    • Tableau
    • 機械学習
    • SQL
    • PHP
    • Ruby
    • Java
    • 開発
    • プログラミング
    • 主担当
    パーソルクロステクノロジー株式会社愛知県名古屋市
    もっと見る

    仕事内容

    パーソルグループ企業もしくは提携企業にて、BIエンジニアとしてデータパイプラインの構築や、BIツールを用いたデータ分析・可視化業務を実施します。 市場ニーズの高いBI領域で、顧客課題のヒアリングから分析、ダッシュボード構築、改善までを一貫して担当し、データ活用を支援します。 【具体的な業務内容】 ・SQL、Python、ETLツールを用いたデータ抽出・加工 ・BIツール(Tableau・Power BI他)を用いたデータ可視化/ダッシュボード構築 ・データマート設計/構築指示、クライアントとの仕様調整 ・リーダー業務(技術フォロー、目標設定支援、1on1、評価実施 ※業務習熟後) 【プロジェクト事例】 ・カード決済サービス会社:決済情報のフロー構築、ダッシュボード作成(Tableau, SQL) ・電力会社:データ分析基盤構築(ETL)、PowerPlatformによる業務効率化 【ポジションの魅力】 ・BIエンジニア未経験からでも、Tableau研修やデータサイエンス研修(Python/統計/機械学習)を通じてスキルアップ可能。 ・エンドユーザーに近いポジションで、技術力とビジネス力の両方を磨けます。 ・将来的にはデータ活用の企画やコンサルタント、データサイエンティストへのキャリアパスも描けます。

    求める能力・経験

    【必須】 ・SQLを用いたデータ抽出経験1年以上(種類問わず) ・何かしらの言語を使用したプログラミング経験1.5年以上(BIの知識は不要)  ※Java、PHP、Ruby、Pythonなどモダンな言語だと尚良 【歓迎】 ・BIツール(Tableau・Power BI他)を用いたデータ可視化、分析経験 ・プロジェクトを主担当として推進した経験 ・DWH構築経験(DB開発経験) ・業務調整における顧客コミュニケーション経験 ・数値を読み解き、仮説を立てる事が好きな方 【求める人物像】 ・顧客および当社の事業発展とご自身の成長に向けて意欲的に取り組んでいただける方 ・新技術を習得し、ビジネス力とエンジニア力を磨きたい方 ・チャレンジ精神が旺盛で、幅広く多種多様な業務に取り組める方

    事業内容

    テクノロジーソリューション事業 ・自動車・航空宇宙・家電・ロボット等の設計・開発・実験における請負・派遣 ・ITシステム・アプリの開発・インフラ設計・運用における派遣・準委任・フリーランスサービス ・AI、DXを活用したIoT、モビリティサービスの導入支援

  • 企業ダイレクト

    【リードAIエンジニア】「銀行×LLM」という最先端領域への挑戦

    800~1200

    GMOあおぞらネット銀行株式会社東京都渋谷区
    もっと見る

    仕事内容

    AI/ML領域における技術選定、アーキテクチャ設計、および開発チーム(3~5名想定)のリードを担当します。AIシステム全体のアーキテクチャ設計:自律型エージェント、RAG、ボイスボットなどが連携するマイクロ サービス全体の設計。・Vertex AI/Cloud Run/Vector Search等を組み合わせた高可用性・低レイテンシな推論基盤のグランドデザイン。2.MLOps / LLMOps の戦略策定と導入:・AIモデルの継続的な評価/改善/デプロイを自動化するパイプライン(CI/CD/CT)の設計と標準化。3.技術マネジメントと品質管理:・メンバーのコードレビュー、技術指導、採用活動への関与。・AIの回答精度(ハルシネーション対策)やセキュリティ基準の策定。

    求める能力・経験

    【必須要件】・WebアプリケーションまたはMLシステムのアーキテクチャ設計・選定の実務経験(テックリードとしての経験)。・3名以上のエンジニアチームにおけるPL/PM経験。・Python 等を用いたAI/MLプロダクト の本番運用経験(開発だけでなく、リリース後の運用・障害対応まで)。 【歓迎するスキル・経験】 ・大規模言語モデル(LLM)を活用したサービスの立ち上げからリリースまでのリード経験。 ・マイクロサービスアーキテクチャの設計・運用経験。 ・金融機関または高いセキュリティレベルが求められる環境でのシステム開発経験。

    事業内容

    ■銀行業務

  • 企業ダイレクト

    【リードデータエンジニア】「AI×銀行」次世代の金融プラットフォーム

    800~1200

    GMOあおぞらネット銀行株式会社東京都渋谷区
    もっと見る

    仕事内容

    全社的なデータ戦略に基づくデータ基盤(データレイクハウス)の設計・構築・運用、およびデータエンジニアチームのリードを担当します。 1.データプラットフォームのグランドデザイン: ・Google Cloud(BigQuery/GCS/Dataflow等)を活用した、拡張性と耐障害性に優れたデータ基盤の全体設計。・バッチ処理とストリーミング処理を統合したモダンなパイプラインの設計。2.データガバナンスとセキュリティ設計:・VPC Service ControlsやIAMを駆使した、金融レベルのセキュリティ設計。・個人情報保護法や金融規制に対応したデータカタログの整備、アクセス制御ポリシーの策定。 その他勤務条件欄にも記載

    求める能力・経験

    【必須要件】・クラウド(Google Cloud/AWS, Azure)における大規模データ分析基盤のアーキテクチャ設計・構築経験(5年以上目安)。・データモデリング(スタースキーマ/Data Vault等)の深い知識と実践経験。 ・エンジニアチームのリーダー経験、または技術的な意思決定の責任者としての経験。 【歓迎するスキル・経験】 ・金融業界におけるデータガバナンス、コンプライアンス(FISC等)に関する知識。 ・Infrastructure as Code (Terraform) を用いた大規模インフラの管理・運用経験。

    事業内容

    ■銀行業務

  • 企業ダイレクト

    【データエンジニア】「AI×銀行」次世代の金融プラットフォーム構想を推進

    600~800

    GMOあおぞらネット銀行株式会社東京都渋谷区
    もっと見る

    仕事内容

    Google Cloud (BigQuery, Cloud Storage) を中核としたデータ分析基盤・AI学習基盤の設計・構築・運用を担当していただきます。 1.データレイクハウスの構築:・非構造化データ(Bronze)から構造化データ(Gold) までのパイプライン設計。BigQueryとGCSを活用した効率的なデータ管理。2.データ収集パイプラインの開発:・Cloud RunやCloud Schedulerを活用した、外部サイトからのスクレイピング(データ取得)基盤の構築と運用。・基幹システムからのデータ連携(ETL/ELT)処理の実装。3.データガバナンスと品質管理:・機密性の高い金融データを安全に扱うためのセキュリティ設計(IAM、VPC Service Controls)およびデータカタログの整備。

    求める能力・経験

    【必須】・SQLを用いた複雑なデータ抽出/加工/集計の実務経験・Python 等のスクリプト言語を用いたデータ処理(ETL)の開発経験・クラウドベースのDWH(BigQuery, Redshift, Snowflake等)の設計/構築/運用経験 ・テーブル設計、パーティショニング、インデックス設計など、DBパフォーマンス・チューニングの知識 【歓迎】 ・Webスクレイピング(Selenium, Puppeteer等)によるデータ収集システムの構築経験  ・データレイク / データレイクハウスのアーキテクチャ設計経験

    事業内容

    ■銀行業務

  • 企業ダイレクト

    【データアナリスト】急成長の自社開発SaaSをデータドリブンで推進

    481~742

    株式会社Squad東京都港区
    もっと見る

    仕事内容

    Web広告の約1/4で利用される急成長SaaS「Squad beyond」のデータ活用を推進し、「プロダクトグロース」と「ビジネスオペレーションの最適化」という両輪をデータで支えることがミッションです。 データ集計・可視化のアウトプットだけでなく、ビジネスインパクト創出とデータ基盤強化という2軸でご活躍いただくことを期待しています。 ■経営・プロダクト戦略支援 (約50%)・経営指標(KPI)や利用データの集計・可視化・分析■ビジネスオペレーション支援 ・ビジネスサイドのデータに関する課題や要望をヒアリング、他部署の意思決定と業務効率化を支援■データ基盤・先端技術への挑戦(エンジニアリング領域)

    求める能力・経験

    【必須】・SQL/Pythonを用いたデータ抽出/データ分析のご経験 【歓迎】・広告・マーケティング周りのデータ分析経験 ・RedashやMetabaseなどのBIツールを使用したダッシュボード作成経験 【魅力】■唯一無二の急成長プラットフォームをデータで推進、自身の貢献していることを実感できる ■「ユーザーの連続した業務」と希少性の高いデータを保有、データ活用でプロダクトグロースとユーザー層拡大に貢献可能 ■従業員の平均年齢32歳。柔軟に職種を超えて議論できるフラットな環境、ビル1階の「Squad Base Cafe」を無料で利用可能◎

    事業内容

    WEBマーケティングプラットフォーム「Squad beyond」の開発・提供/マーケティング支援

  • エージェント求人

    【博報堂テクノロジーズ】:データマネジメントセンター(データマネジメント部_PM)

    726~1206

    株式会社博報堂テクノロジーズ東京都港区
    もっと見る

    仕事内容

    ■データマネジメントセンターについて 博報堂DYグループの事業基盤を支えるデータを集約・管理し、収益創出の加速を目指すセクションです。 グループ内に分散しているデータの収集、管理、提供に至る全プロセスを一元的に担い、データの価値を最大化することに専念しています。データの効率的な活用により、グループ内の課題解決や新たな価値創造に積極的に取り組み、グループ全体のデータマネジメントの推進を図っていきます。 ■データマネジメント部について 博報堂DYホールディングス全体のデータ基盤を統合しマネジメントする新組織です。ホールディングス内に蓄積されたデータ、購入したデータやオープンデータの活用による博報堂グループの価値創出を実現します。当部門ではデータに関する構想策定から具体化までを対応することで、他部門やグループ会社が顧客の意思決定をデータドリブンに解決、改革、サポートできるような環境を作ります。 ■組織ミッション: ・博報堂DYホールディングスすべての役職員が、ストレスなくデータ利活用ができる世界の実現。 ・散在する博報堂グループのデータ基盤を、仮想技術/クラウド技術/生成AI技術等を用いてアップデートし、データ管理と使いやすさの両立を目指す。 ■自組織の強み グループ横串組織として、単体の事業会社では得難い、様々なデータに携わることが可能。 <取り扱うデータ例> マーケティングデータ/オーディエンスデータ/メディア出稿データ/基幹系データ <関わるプロダクト例> ・AIを用いたディスプレイ広告最適化ソリューション ・テレビの視聴ログとデジタル行動を紐づけた次世代型広告効果測定ツール ・フルファネルマーケティングに資するプランニングをより早く・簡単に実現する統合型ソリューション ・生成AIを用いた、データ利活用促進AI ■担当業務内容(ご経験・ご志向に応じて下記いずれかのミッションを想定) ①散在するデータ基盤のデータセットを基点に業務ヒアリングを行い、データモデリング業務を通じて構造的なデータ理解や、データ提供に必要なソリューション開発をリード。 ②データガバナンスやデータ品質担保、メタデータ管理において、ガイドラインの策定や適切なフレームワークの選定を行い、各データ基盤チームへと浸透させる。 ■仕事のやりがい ・各部門に在籍するデータエンジニアやデータサイエンティスト、データアナリストと協業しながらプロジェクトを推進するため、刺激や学べることが多く、自身の成長を実感できること ・これからのデータ基盤運用に必須となる「データマネジメントスキル」を、大規模な組織と複数のデータ基盤で実行するという、他社では得難い経験値を身につけられること ■3~5年後の想定されるキャリアパス スキル/経験によっては、部内でのチームリーダー、部長としてのキャリアパスもあると同時に、データエンジニア、データ戦略、データアーキテクト等の幅広いパス有り。加えて、将来的には社内の別センター(部門)でのキャリア形成も可能。 ■業務上の課題 ・新設組織のため、個々人が複数業務を担当する必要があること ・横串組織という特性上、部分最適と全体最適の両面を理解しながら、折衝を重ねる必要があること ・データマネジメント業務についてのベストプラクティスが世の中に無いため、常に知識のアップデートが求められること

    求める能力・経験

    ■募集要件(Must) <経験> ・データコンサルタントとしての業務経験 or 全社規模のデータ基盤のマネジメント経験(2年以上) ※上記に加え、以下いずれか1つのご経験 ・データモデル(論理・物理)を自身で描き、運用保守を行った経験(3年以上) ・データカタログ作成など、データマネジメント業務を主務として担当した経験(2年以上) ・AWS、GCPいずれかのマネージドサービスを用いたデータ基盤や関連プロダクトの構築、運用保守経験(2年以上) ・データエンジニアリング領域での開発経験(3年以上) <知識・スキル> ・開発プロセス・運用プロセスに関する理解 ■募集要件(Want) <経験> ・データマネジメントの実践経験 ・データ利活用促進に関する経験 ・ExcelやBIツールによるレポートを業務ユーザーと折衝し作成した経験 ・社内外の関係者とコミュニケーションをとりながらプロジェクト推進した経験 ・Webサイトやスマートフォンアプリなど、UI/UXを意識した開発経験 <知識・スキル> ・DAMA-DMBOKに関する知識 ・個人情報保護法やGDPRなどのデータ関連法令の知識

    事業内容

    -