RECRUIT DIRECT SCOUT リクルートダイレクトスカウト PRODUCED BY RECRUIT
RECRUIT DIRECT SCOUT リクルートダイレクトスカウト PRODUCED BY RECRUIT
エージェント求人

データエンジニア/MIXI・海外新規事業/toCサービス/スポーツベッティング/フルリモート

700~1200

株式会社MIXI

東京都渋谷区

職務内容

職種

  • データサイエンティスト

  • データベースエンジニア

  • 組込/制御設計/開発(アプリケーション)

仕事内容

  • インシデント管理
  • 既存顧客
  • GitHub Actions
  • dbt
  • Looker
  • 分析
  • Go
  • 開発

プライム上場企業のMIXIの海外向けエンタメWebサービスを運営する新規事業部にて、 データベースエンジニアとしてデータ基盤やダッシュボードの構築などをお任せするポジションです。 ■ポジションの魅力 ①ローンチ約1年のtoC向けWeb/アプリサービスのため裁量大きく業務に携われる ②海外市場の中でも新規性が高い事業領域であり、市場規模は8.8兆円と巨大な市場 ③日本国内フルリモート勤務でありつつ、海外メンバーとの協働や国外市場に向けた企画含めグローバルに働ける環境 ※業務での英語使用ができる方を募集中です <具体的には> ・BigQueryとdbtを使用したデータ基盤の構築と保守 ・LookMLの設計および実装、ダッシュボードの作成 ※データ分析のご経験者には、データ分析業務などもお任せする予定です。 <開発環境> ・開発言語:Go ・インフラ環境:Google Cloud,Cloud Spanner,Cloud Function,Cloud Run,App Engine,BigQuery ・データ基盤:dbt, BigQuery ・BIツール : Looker Studio, Looker, Tableau ・ソースコード管理:GitHub ・CI/CD: CircleCI,GitHub Actions ・監視・モニタリング: Google Cloud Logging, Google Cloud Monitoring ・インシデント管理: PagerDuty ・コミュニケーション: Slack, Google Meet ・プロジェクト管理、ドキュメント: JIRA/Confluence <サービス名> betM(ベットエム) 家族・友人らと老若男女問わずスポーツベッティングを楽しむカルチャーが根付いているオーストラリアにおいて、アプリを介しリアルタイムに家族・友人との会話を楽しめるソーシャル機能を持つ、海外ベッティングサービスを展開しております。 <サービスの現状> ・競合サービス7〜80社がある中、ローンチ約1年でTier1サービスに名を連ねる勢いで成長中 ・サービスの基本的な機能に関しては、実装を終えており概ね競合劣位がなくなっている状態 ・独自のsocial機能を継続的にリリースし、サービスの優位性確立と既存顧客のリピート率向上に向け、更なるアプリ/webサービスの体験向上を進めている状況 ※詳細は面談の中でお伝えいたします。

求める能力・経験

  • CD
  • dbt
  • Looker
  • 分析
  • Dataform
  • マネジメント
  • データ分析
  • データモデリング

<必須経験> ・データマネジメントの実務経験2年以上 ・CI/CDの設計と実装経験 ・運用/保守性やデータセキュリティを考慮したLookML設計ができる方 ・Google Cloudの基礎知識とBigQueryの専門知識 ・英語での読み書きに抵抗がない方 <歓迎要件> ※あると尚良いご経験です。必須ではございません。 ・dbtを用いたデータモデリング設計に詳しい方 ・dbtのキャッチアップに意欲がある方、これから身につけたい方 ・Lookerの経験 ・dataformの運用経験 ・データ分析の経験 ・生成AI活用して業務効率改善した経験

勤務条件

雇用形態

正社員

契約期間

給与

700万円〜1,200万円

通勤手当

全額支給

勤務時間

08時間00分 休憩60分

10:00〜19:00 ◆所定労働時間  10:00~19:00  ※フレックスタイム制度あり(コアタイム12:00~15:00)、休憩1時間

フレックスタイム制

有 コアタイム (12:00〜15:00)

残業

残業手当

休日・休暇

123日 内訳:完全週休2日制、土曜 日曜 祝日

その他

慶弔休暇、年末年始休暇、生理休暇、裁判員休暇、子の看護休暇、介護休暇、特別休暇

社会保険

健康保険 厚生年金 雇用保険 労災保険

備考

◆700~1,200万円程度 スキル・経験などを考慮の上で、決定します

勤務地

配属先

転勤

本社(東京都渋谷区渋谷 ※フルリモート勤務可)

住所

東京都渋谷区

喫煙環境

屋内禁煙(屋内喫煙可能場所あり)

制度・福利厚生

制度

在宅勤務 リモートワーク可 副業OK 服装自由 出産・育児支援制度 社員食堂・食事補助

その他

その他制度

◆福利厚生:住宅手当、交通費、ランチ代サポート、ドリンクバー完備、  書籍購入支援、懇親会補助、予防接種、健保組合の提携機関にて優遇制度あり、  iTunes Card/Google Playカード購入補助、ミクブレ(リフレッシュ休暇)など ◆各種制度:MCC(社内公募)制度、従業員持株会制度、企業型確定拠出年金制度、  育児休業制度、介護休業制度、病児保育&ベビーシッター補助制度、  社内カフェ(BYRONBAY COFFEE)、マッサージルームなど

制度備考

最終更新日: 

条件の近いおすすめ求人

  • エージェント求人

    DX推進エンジニア】生成AI・データ基盤で業務改革を実現(立ち上げフェーズ参画)/25-EP-40

    500~900

    • 運用保守
    • 開発
    • データ分析
    • Python
    • データマネジメント
    • システム監視
    • 担当者
    • クラウド
    • SaaS
    • テスト
    • プロジェクト
    • AWS
    • 分析
    • SQL
    • Azure
    • マネジメント
    • GCP
    • 製品
    • 提案
    • Google Cloud Pl...
    東京電力エナジーパートナー株式会社東京都中央区
    もっと見る

    仕事内容

    東京電力の小売り事業分野において、データエンジニアとして、当社事業部が「AIを前提」に業務プロセスを変革していくためのエンジニアリングを推進していただきます。 生成AI/LLM、AIエージェント、各種SaaS/社内システムを"つなぎ"、現場で使われ続ける仕組みとして実装・運用まで落とし込むポジションです。なお、本ポジションは「一人で背負う」ものではありません。 関係エンジニア・事業部メンバーと伴走しながら、テーマ選定〜実装〜定着までを一緒に前に進めます。AI領域についても、入社時点での専門性を前提にせず、実務を通じてキャッチアップしながら取り組める体制を整えています。 ※過去例はないため今後の計画を記載 └AIエンジニアリング業務(社内における業務変革のためのAIアーキテクチャの設計から開発まで) └グループ内のメンバー3~4名と連携して進める(社内の業務部門担当者とも別途連携して進める) 【具体的な業務】 ・業務課題の理解と業務・データフローの可視化 ・生成AIやAIエージェントを用いた業務プロセスの再設計 ・既存システムとデータ基盤を連携した業務アプリの実装 ・AI活用のためのデータ連携やナレッジ整備 ・業務品質維持のための評価・テスト・監視の実施 ・セキュリティ基準に基づく運用・保守の設計 ◆責任・期待される役割 AIを基にした事業運営を実現するために、迅速かつ正確なAIモデルを開発・実装をお任せします。 特に、事業部が求めるビジネス課題を引き出し、価値を最大化するための取り組みを一緒に進めていきたいです。データおよびAI技術を駆使して、事業変革に貢献する仕組みの構築と定着をリードいただきます。 ◆採用背景 技術進化とAIの普及が加速する中、当社ではAIを基盤にビジネス変革を推進し、利益貢献とデータビジネス創造を早期に実現することを目指しています。 そのため、AI時代に対応したアーキテクチャの構築を担い、社会に新しい価値を提供する挑戦に共に取り組む仲間を募集します。 ◆魅力・やりがい 新しい技術に挑戦できる環境で、個人の裁量を活かしながらキャリアを築けます。 設立から5年程度の若い組織のため、プロジェクトの立ち上げや仕組みづくりに深く関われる機会があります。 さらに、AWSやAzureなどのクラウド基盤を活用し、PythonやSQLによるデータ分析、API連携、生成AIやLLMを用いた開発など、モダンな技術スタックを実務で扱える環境を整えています。 ◆キャリアパス 配属先にてAIを活用したエンジニアリング業務やデータマネジメントの運用・保守等に携わっていただいた後、当社グループ内のデータ関連部署を経験して頂きます。

    求める能力・経験

    【必須要件】 クラウドプラットフォーム(AWS、GCP、Azureなど)を分析や開発で利用した経験(1年未満でも可) 【歓迎要件】 〇AIに関わる以下のいずれかの経験  ・AIサービスの導入経験(サービスは不問)  ・生成AIやAIエージェントを活用した業務効率化の経験(改善規模は問わない)  ・AIサービスを実際に使い、試行錯誤することが好きな方(サービス分野は問わない) 〇データマネジメントの担当経験 〇様々なSaaS製品の利用経験 〇ビジネスニーズを理解し、改善提案ができる能力 〇データ分析やデータサイエンスの基礎知識 〇電力業界におけるビジネス理解

    事業内容

    -

  • 企業ダイレクト

    【インフラエンジニア】スキルアップ可★SCSKグループ★キャリアアップ支援充実

    480~800

    SCSKシステムマネジメント株式会社東京都江東区
    もっと見る

    仕事内容

    IBMメインフレーム基盤の構築・維持保守 ・IMS、Db2、MQ、CICSなどのミドルウェアの構築、維持保守 ・A-AUTO等の運行系ソフトウェアの構築、維持保守 ・制御系プログラムの保守、開発 ・メインフレームの大規模プロジェクト(バージョンアップ)や小規模案件におけるPMO・リーダー業務 【技術要素】 OS:z/OS・ミドルウェア:IMS、SAIL、Db2、MQ、CICS サードパーティ製品:A-AUTO,DEX,HULFT 言語:アセンブラ、COBOL(非業務アプリケーション)

    求める能力・経験

    【必須経験・スキル】Cobol開発経験者(2~3年程度) 【本ポジションの魅力】人財育成に注力し、進化と成長を続けている同社で多彩なキャリアを実現しませんか?同社はSCSKグループの中でもお客様のビジネスに寄り添ったシステム構築提案を行っており、お客様のビジネスにも直接貢献できます。クラウドやセキュリティとネットワークの融合等、進化し続けるITインフラ技術への追随が必要です。同社は教育の機会も充実しており、→続きはその他労働条件備考

    事業内容

    ■事業内容:オンプレミス運用、データセンター運用■サービス内容:業務運用(医療情報サポート等)、システム運用、サービスデスク、オペレーション、システム監視、自動化開発、インフラ維持管理、セキュリティ運用、クラウド運用、ITサービス管理

  • エージェント求人

    データサイエンティスト / キャディ

    780~1800

    • マネジメント
    • 課題/ボトルネック特定
    • 提案
    • 課題設定
    • データマネジメント
    • ソリューション開発
    • カスタマーサクセス設計
    • 商談
    • 異常検知
    • ヒアリング
    • プレゼンテーション
    • データ分析
    • 機械学習
    • 開発
    • オンボーディング
    • 分析
    • プライシング
    • 深層学習
    • Tableau
    • R
    • GCP
    • データベース
    • Python
    • 品質管理
    • クラウド
    • DB設計
    • AWS
    • Azure
    • Google Cloud Pl...
    • SQL
    キャディ株式会社東京都台東区
    もっと見る

    仕事内容

    #### 職務内容 ソリューション部門で、エンタープライズ企業向けのソリューション提案から開発に必要なデータ抽出、加工、分析などに携わっていただきます。 データサイエンティストとしてだけではなく、顧客への提案やソリューション開発にも伴走いただきます。 #### <具体的な職務内容> - CADDiに蓄積された製造業関連データ(図面、仕様書、諸元、不具合報告書、DR議事録、過去トラ、原価など)の収集、加工、分析 - 製造業クライアントの課題特定と、データ分析に基づいた改善提案、ソリューション開発 - 機械学習、深層学習などのAI技術を用いた予測モデル、異常検知システムの構築、運用 - データ可視化ツールを用いた分析結果の報告、プレゼンテーション - 新しいデータ分析手法、AI技術のリサーチ、導入 - ビジネス部門と連携した、データドリブンな意思決定支援 #### 入社後のイメージ まずはキャディの会社全体、Enterprise Solutionそれぞれのオンボーディングを受けていただきます。製造業未経験の方でもキャッチアップ可能な環境を用意しています。次に商談に同席しつつ、業界・顧客・プロダクト・ソリューションの理解を更に深めていただきます。顧客のCxOや部門責任者などにヒアリングし、課題の整理やソリューションの磨き込みを進めていただきます。セールス、カスタマーサクセス、データマネジメント、オペレーション等のチームと協業の上で、顧客課題の特定とソリューション設計、プライシング、提案を複数回重ねながら受注し、受注後は各部署と連携しながらデリバリを実施する流れです。提案フェーズでは、10社程のエンタープライズ企業のソリューション案件にオーナーシップを持って取り組んでいただきます。1社当たりおおむね数ヶ月〜半年での受注を想定しています。

    求める能力・経験

    ■応募資格(必須): - データサイエンティスト、またはデータアナリストとしてのデータ分析経験が3年以上 - Python、Rなどを用いたデータ分析、統計モデリングの実務経験 - SQLを用いたデータベース操作経験 - データ可視化ツール(Tableau, Power BIなど)の使用経験 - ビジネスレベルの日本語能力 - チームでの協働経験 ■応募資格(歓迎): - 製造業の業務知識(設計、生産、品質管理など) - 製造業におけるデータ分析経験 - 機械学習、深層学習に関する専門知識、実務経験 - クラウド環境(AWS, GCP, Azureなど)でのデータ分析経験 - 大規模データの処理経験 - 英語力(ビジネスレベル) - データサイエンティストとしての資格保有者

    事業内容

    -

  • エージェント求人

    Webデータ分析エンジニア・GDPR対応担当

    400~1000

    株式会社Cygames東京都渋谷区
    もっと見る

    仕事内容

    ※契約社員、業務委託契約の場合もございます。 【職務内容】 同社が運営するゲームタイトルのプロモーションサイト・コーポレートサイトなどに対し、GA4/GTMを駆使してデータの収集および集計、データに基づいた改善提案とグローバル基準のGDPR対応を実施するお仕事です。 GA4(Googleアナリティクス)やGTM(Googleタグマネージャー)などを利用した計測、レポーティング、改善提案やWeb広告のタグの設置などのデジタルマーケティング業務と自社サイトをGDPRへ準拠させるため、CMPツール(OneTrust)を利用したCookieの制御などの導入進行、または運用保守業務を担当してもらいます。 【具体的には】 ・ 各種サイトへアクセス解析ツール(GA4)や最適化ツール(ヒートマップツールなど)を 導入するための計測設計、検証および実装 ・ GTMを使ったWeb広告タグの設置 ・ CMPツール(OneTrust)を利用したCookie制御およびGDPR対応 ・ 数値に基づいた改善プラン立案、提案(求人ID:390025)

    求める能力・経験

    【必須】 ・ GA4やGTMなどのアクセス解析ツールの設置、活用経験 ・ GA4の計測設計およびGTMを使った広告タグを含む各種タグの設置、発火制御の経験 ・ BIツール(LookerStudioなど)を利用したレポーティング等の経験 【歓迎】 ・ 所与の目的のもと、ステークホルダーを巻き込んだ進行管理経験 ・ 大規模サイト、ECサイトでのGA4GTM運用またはGA360運用経験 ・ GDPR、CMPツール(OneTrustなど)に関する知識、Cookieの制御を行った経験 ・ 日本以外の地域でWebサービスを展開した経験 ・ SEOに関する知識 ・ ツール導入における検討、技術的な検証経験 ・ BigQueryを生かしたデータ運用経験

    事業内容

    サイバーエージェントのグループ会社として設立され、「最高のコンテンツを作る会社」というビジョンのもと、ゲームの企画・開発・運営を主軸に事業を展開しています。常にユーザーを第一に考え、最高のコンテンツを追求し続けています。

  • エージェント求人

    🍃 安定も、キャリアも、選べる自由🍃レバレジーズ社のAI・データエンジニア募集!

    400~850

    • Looker
    • 分析
    • Keras
    • 自然言語処理
    • 開発
    • データ分析
    • Tableau
    • SAS
    • PyTorch
    • 機械学習
    • デザイン
    • ChatGPT
    • Web/ITサービス
    • プロジェクト
    • Google Looker S...
    • Google BigQuery
    • Salesforce
    • 医療/ヘルスケア
    • R
    • SQL
    • クラウド
    • Python
    • マネジメント
    • ダッシュボード作成
    • リーダー
    • データベース設計
    • データマイニング導入
    • データマイニング開発
    • データウェアハウス導入
    • データウェアハウス開発
    • データモデリング
    • データ前処理
    レバレジーズ株式会社東京都渋谷区
    もっと見る

    仕事内容

    📍おすすめポイント 1. 自由な働き方でキャリアをデザイン! 📈 案件ごとに「担当領域」「単価」「関わりたい技術」を選べます。レバレジーズの社員として安定した働き方を確保しつつ、多様なプロジェクトに参画できるため、あなたの志向に合わせた自由なキャリア形成が可能です。 2. 成長を後押しする充実のサポート体制! 🧠 営業担当だけでなく、エンジニア専門のフォロワーチームがあなたのキャリアをサポートします。業務での悩みや相談はもちろん、解決のための企業交渉までしてくれるので、安心して目の前の業務に集中できます。また、社内勉強会や表彰制度など、成長や頑張りを称賛する文化が根付いています。 3. 多彩な案件でDXの最前線へ! 🤝 飲食、医療、物流、ITサービスなど、様々な業界のデータ分析やAI開発案件に携われます。データサイエンティスト、データアナリスト、BIエンジニアなど、幅広い職種でDX人材としてスキルを磨き、市場価値を高めることができます。 ✍️ 主な仕事例: ・飲食業界向けデータ分析 ・飲食店向けAIチャットボットプロンプト改善(ChatGPT/自然言語処理) ・テレビ業界向けデータ分析基盤開発 ・物流業界向け帳票開発(PowerBI) ・建設系企業向けダッシュボード構築(Tableau) ・大手企業DX及びデータ分析(機械学習/データマイニング) 🌟使用ツール例 ・データアナリスト:GoogleAnalytics、SAS、Salesforce ・BIエンジニア:Tableau、PowerBI、Looker Studio ・データサイエンティスト:TensorFlow、Keras、PyTorch、ChatGPT関連ツールなど ・データエンジニア:AmazonRedshift、BigQuery、DWH、ETLなど

    求める能力・経験

    🌟こんな方を募集しています! 【✅必須】 ⬇️以下のいずれかを満たす方⬇️ ・PythonやRを用いた機械学習モデルの開発、またはデータ分析経験が1年半以上 ・クラウド環境でのデータ基盤構築経験が1年半以上 ・TableauまたはPower BIを用いたダッシュボード作成、およびSQLでのデータ処理・抽出経験がそれぞれ2年以上 ・複数のプロジェクトでDX推進を経験された方(合計3年以上) 【✴️こんな方と一緒に働きたい!】 ・データ領域に強い関心がある方 ・新しい技術やツールにアンテナを張り、キャッチアップを楽しめる方 ・実務経験は浅くても、有名企業で活躍したいという意欲がある方 ・将来的に、現場のリーダーやマネジメントに挑戦したい方

    事業内容

    2005年創業以来、独自の経営戦略で黒字経営を継続するレバレジーズは、2024年度に年商1428億円を達成した急成長中のメガベンチャーです。「感情への貢献」をテーマに、IT、ヘルスケアなど40以上の事業を展開。年間100億円規模の投資で10以上の新規事業を創出するなど、常に新しい価値を生み出し続けています。渋谷スクランブルスクエアに本社を構え、6年連続「働きがいのある会社」に選出される、高い成長性と働きやすさを両立した企業です。

  • エージェント求人

    Data Scientist【正社員 / Corporate】 / UPSIDER

    500~850

    • 戦略提案
    • 融資
    • 営業
    • システム監視
    • 解析結果評価
    • 課題設定
    • 新規事業
    • 機械/電気プラント営業
    • ローン/融資
    • 購買/調達
    • 資金調達
    • 提案
    • 経理
    • 請求
    • 機械学習
    • Google BigQuery
    • データ分析
    • LightGBM
    • Google Cloud Pl...
    • Python
    • scikit-learn
    • プロジェクト
    • 分析
    株式会社UPSIDER東京都渋谷区
    もっと見る

    仕事内容

    ■仕事概要: 【UPSIDERについて】 「挑戦者を支える世界的な金融プラットフォームを創る」をミッションに掲げ、法人カード「UPSIDER」(AI与信で最大10億円枠、リアルタイム明細、バーチャル発行等、累計決済額8,500億円以上*)を中心に、請求書カード払い「支払い.com」(クレディセゾンと共同運営、累計決済額1,500億円以上*)、グロースデットファンド「UPSIDER BLUE DREAM Fund」(みずほフィナンシャルグループ共同運営、融資総額130億円以上*/累計ファンド総額243億円*、条件提示は平均10営業日以内*。複数の金融機関・投資家が参画する独立系ベンチャーデットファンドとして国内最大規模)を展開しています。 2025年には、経営者向け法人カード「PRESIDENT CARD」(JALとの提携により提供)や、経理業務の効率化を実現する「UPSIDER AI経理」(業務AIが1.1億件の処理を自動実行・代替)といった新規事業を立ち上げ、累計導入企業数10万社以上に到達。また、「UPSIDER」では累計与信枠5兆円以上を提供し、不正利用発生率は1%未満を維持、累計カード発行枚数340,000枚以上*、アップロードされた領収書数は160万枚以上*、利用先制限機能では260件*の利用先を設定可能と、プロダクトの利便性と安全性の向上を加速させています。 事業成長としては、年間売上規模約100億円*、かつ年間売上成長率50%以上*を継続。2024年にはシリーズDとして154億円の資金調達を実施し、累計資金調達額は600億円を突破。2025年7月には、みずほフィナンシャルグループへの戦略的グループインを発表し、従来からの共創領域に加えて、AI与信や新たな金融サービスの共同展開を通じ、日本企業の競争力を本質から高める金融エコシステムの創出に挑んでいます。 創業者である宮城・水野は引き続き経営株主として参画し、上場も視野に入れながら、挑戦者を支える社会インフラの構築に挑戦し続けています。私たちは今後も、挑戦する企業と、それを支える社会を前進させるべく、カテゴリートップとなる新たな事業創出を加速させていきます。 *各種数値は2025年11月末時点 【与信モデルについて】 UPSIDERの成長の根幹を担っているのが、伝統的な金融機関と一線を画した弊社独自の与信モデルとなります。 過去のお客様の事業状況ではなく、UPSIDER独自の与信を行うことで、スタートアップ企業、IT企業に留まらず、様々な業種のお客様にUPSIDERカードをご利用いただく機会が生まれています。本ポジションでは上記与信モデルに加えて、全社的なAIの導入を推進し、テクノロジーの力によってお客様に寄り添えるデータサイエンティストを募集します。 【本ポジションの魅力】 ・事業の収益性を大きく左右する与信モデルの改善に関与できる ・ビジネスやプロダクトチームと連携しながらデータを収集し、特徴量を設計する中で、UPSIDERの事業の特性、構造を深く理解できる位置にある ・システム化や自動化まで担うことで、非常に大きなスケールで価値を生み出し続けていることを実感できる 【業務内容】 ・ビジネス課題を理解し、データ解析および機械学習モデルを活用して解決策を提案、実装する ・データの前処理、特徴量エンジニアリング、モデル構築、評価、および改善を行う ・機械学習モデルのパフォーマンスを継続的に監視し、最適化する ・データビジュアライゼーションツールを使用して、結果をステークホルダーに説明する ・クロスファンクショナルなチームと連携し、データドリブンな意思決定を支援する 今後やっていきたいこと】 ・不正利用検知AI ・企業ごとにパーソナライズされた金融アドバイスAI ・AIチャットボットの利活用 【利用しているツールや開発環境】 ・開発言語:Python/Typescript ・機械学習・統計モデリング:scikit-learn/LightGBM/pandas/numpy etc. ・クラウドプラットフォーム:Google Cloud Platform ・分析基盤:BigQuery ・アプリケーション:Next.js/FastAPI ・構成管理ツール:Terraform/Cloud Build ・データモデリング:Dataform/dbt ・データビジュアライゼーション:Metabase/Redash ・その他:Docker/GitHub/Slack/Github Copilot/Cursor/Claude Code etc.

    求める能力・経験

    ■必須スキル: ・実務上における日本語でのオーラルコミュニケーション経験2年程度 ・データ分析の実務経験 ・BigQuery/Cloud StorageなどGoogle Cloudを用いたデータ分析、初期基盤の構築、運用の経験 ・Pythonを用いた機械学習モデルの実装経験(scikit-learn/LightGBMなどの利用経験) ■歓迎スキル: ・与信、不正対策の領域でのデータサイエンス経験 ・金融機関、Fintech企業での就業経験 ・プロジェクトまたはチームリードの経験 ・LLM等の生成AIに関する知識、業務経験 ■求める人物像: ・UPSIDERのミッションに共感いただける方 ・ユーザーファーストの思考で仕様変更や設計改善などを自ら提案できる方 ・技術や手段よりも「ユーザーに価値を届けること」に喜びを感じられる方 ・リスペクトを持ち、困っている仲間に手を差し伸べられる方 ・ビジネスの成功に向けて、部署やチームを超えて他メンバーと積極的なコラボレーションができる方

    事業内容

    -

  • エージェント求人

    大手直受け案件:AI/データ分析基盤構築リードPM/PL

    650~1000

    株式会社Dirbato東京都港区
    もっと見る

    仕事内容

    ミッション:大手クライアントのデータ利活用をリードし、データドリブンな意思決定を支援 小売・サービス・金融・通信など多種多様な業界において、データ分析基盤構築から、顧客分析、需要予測、BIによるKPI可視化まで、データ利活用をワンストップでリードします。ご経験と志向性に応じて、データエンジニアまたはデータサイエンティスト、あるいはその両方を担当します。 データ基盤構築(データエンジニア): データパイプライン、DWH、データマート、CDP、データベースなどの設計/構築、運用。 生成AI活用におけるデータ整備。 データ分析・提案(データサイエンティスト): 企業保有データ(ビッグデータ)の要件分析、機械学習などのモデル構築。 BIツールを用いたデータ可視化・ダッシュボードの利活用提案、分析結果に基づいたソリューション提案。 プロジェクトマネジメント: PMO / PM / PLとして、データ関連プロジェクトの上流から下流までを統括。 若手データエンジニア/データサイエンティストの育成・マネジメント。 ✨ ポジションの魅力 直受け100%の裁量: 大手クライアントからの直受け案件が100%であり、「言われた通りに仕事をする」ではなく「自ら提案を行っていく」がスタンダード。 ワンストップソリューション: 基盤構築、BI、データ分析、運用までワンストップでソリューションを提供し、社会価値創造に携われる。 PM/PL経験を活かせる: プロジェクトマネジメントと、ラインマネジメント(組織管理)の両方に携わるチャンスがある。 充実した学習環境: 270種類以上の資格取得支援制度、最新技術(生成AI、LLMなど)の知見を深める環境が充実。

    求める能力・経験

    必須要件(MUST) ①マネジメント/リード データ関連プロジェクトにおいて、PMO / PM / PL のいずれかの経験(年数不問)。 ②技術・実務経験 SQL・Pythonを用いたデータ分析、データコンサルタント、データマネジメント、データ基盤構築エンジニアのいずれかの実務経験を3年以上。 歓迎要件 Snowflake/BigQuery/Redshift等のDBからのデータ抽出経験、R/Python等のデータ分析・レポーティング経験、AWS/GCP/Azureの実務経験、生成AI/NLP/LLMに関する知見、統計・機械学習の知見、ラインマネジメント経験。 求める人物像 課題解決力、活発なコミュニケーション、最新技術の習得に貪欲な方、主体的に行動できる方。

    事業内容

    テクノロジーコンサルティング事業、インキュベーション事業(新規事業開発)

  • エージェント求人

    データ分析のプロへ:微経験から大手課題を解決するデータアナリスト

    400~600

    株式会社Dirbato東京都港区
    もっと見る

    仕事内容

    ミッション:大手クライアントのデータドリブンな意思決定を上流から支援 小売、サービス、金融、通信など、さまざまな業界の大手クライアントに対し、データ分析基盤構築から顧客分析、需要予測、BI可視化・レポーティングまで、幅広いデータ利活用をリードします。 業務範囲: データ分析基盤(DWH・DM)の設計/構築。 データの加工/集計/抽出、分析設計/実施。 機械学習モデル構築、ダッシュボード(BI)の設計/構築。 施策の実施と効果分析、生成AI活用におけるデータ整備。 プロジェクトへの関わり: 大手クライアント・大手SIerとのプロジェクトに、上流から下流まで全工程で伴走。 「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」スタンス。 使用技術: 言語:SQL, Python, R ほか クラウド環境:GCP, AWS, Azure DB・DP例:BigQuery, Redshift, Snowflake, Databricks ほか BIツール例:Tableau, Looker Studio, PowerBI ほか ✨ ポジションの魅力(詳細化) 成長機会: 実務経験の浅い方には、入社後最大2ヵ月程の座学研修(SQL, Tableau, Python, 統計など)を提供。微経験からデータ分析のプロフェッショナルへの第一歩を踏み出せる。 技術力と洞察力: データベース設計、クエリ最適化などの技術的スキルに加え、ビジネス課題を解決するためのデータの洞察力(インサイト)が磨かれる。 基礎能力向上: 日本トップクラスの大規模企業のプロジェクトを通じ、「きめ細かい」シゴトを行うビジネスマンとして大切な基礎能力が最高レベルで身につく。

    求める能力・経験

    必須スキル(MUST) 以下の両方の経験をお持ちの方。 ・IT業界での就業経験(2年以上) 以下いずれか必須(1年以上) ・システム開発経験(Python、Java、Reactなど) ・データ抽出 または データ分析の実務経験 ・データ構築の実務経験 歓迎スキル(WANT) 以下の経験・知識をお持ちの方は優遇いたします。 ①データ基盤/DWH経験: DWH・データ基盤構築、データマートの設計・開発、BigQuery・Amazon Redshiftなどを用いたビッグデータハンドリング業務。 ②分析スキル: SQLを用いたデータ業務経験、定量データを用いたデータ分析・レポーティング経験。 ③ツール経験: Power BI や Tableau におけるダッシュボード構築経験。 ④クラウド経験: GCP / AWS / Microsoft Azure いずれかの導入・開発・実務経験。 ⑤その他: デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)、特定の業界におけるビジネス知識。

    事業内容

    テクノロジーコンサルティング事業、インキュベーション事業

  • エージェント求人

    【データエンジニア候補】人材業界最大手のデータ活用基盤/内製開発・AWS・DWH

    700~840

    • Linux
    • テスト
    • プログラミング
    • 開発
    • Python
    • 詳細設計
    • 運用設計
    • クラウド
    • アーキテクチャ設計
    • Oracle
    • アーキテクト
    • 営業
    • スタッフ
    • マネージャー
    • DB設計
    • プロジェクト
    • PostgreSQL
    • AWS
    • システム開発
    • 運用保守
    • パートナー
    • チームリーダー
    • 要件定義
    • 対策実施
    • SQL
    スタッフサービスグループ(株式会社スタッフサービス・ホールディングス 等)東京都千代田区
    もっと見る

    仕事内容

    スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験

    求める能力・経験

    【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験)  └10人以上のプロジェクト参画のご経験(6か月以上)  └概要設計または要件定義のご経験  └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方

    事業内容

    人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他

  • エージェント求人

    【データエンジニア】1万店舗の購買データをGCP/BigQueryで基盤構築

    600~900

    • Python
    • 開発
    • Google Cloud Da...
    • プロダクト開発
    • Google BigQuery
    • Slack
    • クラウド
    • 店舗
    • コードレビュー
    • 品質管理
    • Datadog
    • Terraform
    • GCP
    • Google Cloud Pl...
    • Docker
    • 技術選定
    • dbt
    • AWS
    • アーキテクト
    • テックリード
    • 加工処理
    • ビッグデータ
    • SQL
    株式会社フェズ東京都千代田区
    もっと見る

    仕事内容

    リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。

    求める能力・経験

    【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方

    事業内容

    リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援