R&Dエンジニア|リクルート
500~900万
株式会社リクルート|紹介実績あり
東京都千代田区
500~900万
株式会社リクルート|紹介実績あり
東京都千代田区
データ責任者/CDO/Chief Data Officer
データエンジニア
国内トップレベルのシェアを有するサービスから日々膨大に蓄積されているリクルートのデータ。 リクルートのR&Dエンジニアはこれらのデータを扱い、幅広い領域において新たな価値の創造に貢献します。 【詳細】 ・先進技術とデータ活用を組み合わせたプロダクトの企画/モデル設計/実装および改善 ・上記プロダクトを効率的に提供/運用するためのデータ基盤検討と開発 具体的には下記のような業務をご担当いただく予定です。 ・営業やCL業務などのオフライン行動を効率化/最適化するデータ活用プロダクトの企画、開発、装着 ・IoTやARなどの先進技術とデータ活用を組み合わせたプロダクトの企画、開発、…
【必須】 ◇下記のすべてのご経験・スキルをお持ちの方。 ・中長期目線での技術活用について自ら検討し、R&Dテーマの企画、開発ができる方 ・ビジネス課題に対して、統計解析/機械学習の手法を適切に選定し、自身でモデリングを行い、アウトプットする事ができる方 ・記述統計・推測統計・基礎的な機械学習のアルゴリズムについて原理を理解している方 ・データサイエンスに関係する論文や学会発表内容を理解し、自身でプロトタイプを実装・評価することができる方 【尚可】 ◇概念設計にもとづき、メンバーとして自身の意図通りにプロダクションレベルでのプログラミングができる方 ◇プロダクト開発…
正社員
500万円〜900万円
09:00〜18:00
有
145日
慶弔休暇 年末年始 夏期休暇 土日|祝…
健康保険 厚生年金 雇用保険 労災保険
基本給:292,118円~711,489円 グレード手当:85,202円~207,518円 ※時間外労働の有無に関わらず、35時間分の固定残業代をグレード手当として支給
東京都千代田区
賞与年2回(6月、12月)|交通費規定内支給|深夜・休日勤務手当追|加割増手当
HRテクノロジー、メディア&ソリューションのサービスを提供する会社です。
最終更新日:
500~900万
東京電力の小売り事業分野において、データエンジニアとして、当社事業部が「AIを前提」に業務プロセスを変革していくためのエンジニアリングを推進していただきます。 生成AI/LLM、AIエージェント、各種SaaS/社内システムを"つなぎ"、現場で使われ続ける仕組みとして実装・運用まで落とし込むポジションです。なお、本ポジションは「一人で背負う」ものではありません。 関係エンジニア・事業部メンバーと伴走しながら、テーマ選定〜実装〜定着までを一緒に前に進めます。AI領域についても、入社時点での専門性を前提にせず、実務を通じてキャッチアップしながら取り組める体制を整えています。 ※過去例はないため今後の計画を記載 └AIエンジニアリング業務(社内における業務変革のためのAIアーキテクチャの設計から開発まで) └グループ内のメンバー3~4名と連携して進める(社内の業務部門担当者とも別途連携して進める) 【具体的な業務】 ・業務課題の理解と業務・データフローの可視化 ・生成AIやAIエージェントを用いた業務プロセスの再設計 ・既存システムとデータ基盤を連携した業務アプリの実装 ・AI活用のためのデータ連携やナレッジ整備 ・業務品質維持のための評価・テスト・監視の実施 ・セキュリティ基準に基づく運用・保守の設計 ◆責任・期待される役割 AIを基にした事業運営を実現するために、迅速かつ正確なAIモデルを開発・実装をお任せします。 特に、事業部が求めるビジネス課題を引き出し、価値を最大化するための取り組みを一緒に進めていきたいです。データおよびAI技術を駆使して、事業変革に貢献する仕組みの構築と定着をリードいただきます。 ◆採用背景 技術進化とAIの普及が加速する中、当社ではAIを基盤にビジネス変革を推進し、利益貢献とデータビジネス創造を早期に実現することを目指しています。 そのため、AI時代に対応したアーキテクチャの構築を担い、社会に新しい価値を提供する挑戦に共に取り組む仲間を募集します。 ◆魅力・やりがい 新しい技術に挑戦できる環境で、個人の裁量を活かしながらキャリアを築けます。 設立から5年程度の若い組織のため、プロジェクトの立ち上げや仕組みづくりに深く関われる機会があります。 さらに、AWSやAzureなどのクラウド基盤を活用し、PythonやSQLによるデータ分析、API連携、生成AIやLLMを用いた開発など、モダンな技術スタックを実務で扱える環境を整えています。 ◆キャリアパス 配属先にてAIを活用したエンジニアリング業務やデータマネジメントの運用・保守等に携わっていただいた後、当社グループ内のデータ関連部署を経験して頂きます。
【必須要件】 クラウドプラットフォーム(AWS、GCP、Azureなど)を分析や開発で利用した経験(1年未満でも可) 【歓迎要件】 〇AIに関わる以下のいずれかの経験 ・AIサービスの導入経験(サービスは不問) ・生成AIやAIエージェントを活用した業務効率化の経験(改善規模は問わない) ・AIサービスを実際に使い、試行錯誤することが好きな方(サービス分野は問わない) 〇データマネジメントの担当経験 〇様々なSaaS製品の利用経験 〇ビジネスニーズを理解し、改善提案ができる能力 〇データ分析やデータサイエンスの基礎知識 〇電力業界におけるビジネス理解
-
600~1000万
業務内容 各プロダクト・部門と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義や実装支援をお任せします。 あわせて、監査ログや権限管理の運用改善、ワークフロー自動化、新規データ連携構成のPoC・運用化、データマイグレーションの推進など、データ基盤全体の改善・拡張にも広く携わっていただきます。具体的には以下の業務です。 社内外データ連携基盤(主にBigQuery・S3・Salesforce・各種SaaS)の設計・開発・運用 データ統合/移行パイプライン(Google Cloud DataStream等)の設計および構築 Dataform、Redash等による定期バッチ、データ可視化・自動化ジョブの設計・保守 データ品質維持、テーブル最新化やコスト最適化施策の推進 各プロダクト・チーム(CS、開発、カスタマーサクセスほか)と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義と実装サポート データ基盤の監査ログ・権限管理の運用フロー改善、ワークフロー自動化 新規データ連携構成(RDBMS to BigQuery・S3 manual連携等)のPoCおよび運用化 データマイグレーションプロジェクト等の推進 やりがい 数千万〜数億レコード規模の大規模データの統合と活用というスケール感のある環境で、設計から運用まで一貫して携わることができます。特定領域に閉じず、広範な技術領域とビジネス領域の両方に関与できる点が大きな特徴です。 また、カスタマーサクセス・営業・開発などの各部門と密に連携しながら、技術選定やPoCにも主体的に関わることができるため、現場ニーズに即した実践的なデータ活用スキルが磨かれます。 加えて、自動化・効率化の余地が非常に大きく、裁量をもって業務改善に取り組めるのも魅力の一つです。新しい技術やツールの導入・検証も積極的に推奨される文化があり、技術志向の高い方には最適な環境です。 勤務形態はフルリモート・フルフレックスに対応しており、ライフスタイルに合わせた柔軟な働き方が可能です。 社内のあらゆる意思決定をデータで支える全社データ基盤の中核として、データを活かした事業成長に直結するインパクトの大きな役割を担っていただけます。 業務内容 各プロダクト・部門と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義や実装支援をお任せします。 あわせて、監査ログや権限管理の運用改善、ワークフロー自動化、新規データ連携構成のPoC・運用化、データマイグレーションの推進など、データ基盤全体の改善・拡張にも広く携わっていただきます。具体的には以下の業務です。 社内外データ連携基盤(主にBigQuery・S3・Salesforce・各種SaaS)の設計・開発・運用 データ統合/移行パイプライン(Google Cloud DataStream等)の設計および構築 Dataform、Redash等による定期バッチ、データ可視化・自動化ジョブの設計・保守 データ品質維持、テーブル最新化やコスト最適化施策の推進 各プロダクト・チーム(CS、開発、カスタマーサクセスほか)と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義と実装サポート データ基盤の監査ログ・権限管理の運用フロー改善、ワークフロー自動化 新規データ連携構成(RDBMS to BigQuery・S3 manual連携等)のPoCおよび運用化 データマイグレーションプロジェクト等の推進 やりがい 数千万〜数億レコード規模の大規模データの統合と活用というスケール感のある環境で、設計から運用まで一貫して携わることができます。特定領域に閉じず、広範な技術領域とビジネス領域の両方に関与できる点が大きな特徴です。 また、カスタマーサクセス・営業・開発などの各部門と密に連携しながら、技術選定やPoCにも主体的に関わることができるため、現場ニーズに即した実践的なデータ活用スキルが磨かれます。 加えて、自動化・効率化の余地が非常に大きく、裁量をもって業務改善に取り組めるのも魅力の一つです。新しい技術やツールの導入・検証も積極的に推奨される文化があり、技術志向の高い方には最適な環境です。 勤務形態はフルリモート・フルフレックスに対応しており、ライフスタイルに合わせた柔軟な働き方が可能です。 社内のあらゆる意思決定をデータで支える全社データ基盤の中核として、データを活かした事業成長に直結するインパクトの大きな役割を担っていただけます。
必須要件 SQL/データベース設計・運用経験(BigQuery、RDBMS等) ETL・データパイプラインの構築、運用経験(Dataform・Cloud Dataflow・Airflow等) クラウドサービスでの開発・運用経験(GCP等) 歓迎要件 Python等を利用したデータ処理・自動化スクリプトの実装実務 SalesforceなどSaaS連携バッチ設計・運用経験 コスト最適化/テーブル最新化等、大規模データ基盤運用における改善プロジェクト経験 業務部門と連携したデータ活用・要件定義・ダッシュボード設計 Jenkins、GitHub Actions等のCI/CD関連知識 情報セキュリティ要件・監査対応経験 ビジネスレベルの英語力
-
400~850万
📍おすすめポイント 1. 自由な働き方でキャリアをデザイン! 📈 案件ごとに「担当領域」「単価」「関わりたい技術」を選べます。レバレジーズの社員として安定した働き方を確保しつつ、多様なプロジェクトに参画できるため、あなたの志向に合わせた自由なキャリア形成が可能です。 2. 成長を後押しする充実のサポート体制! 🧠 営業担当だけでなく、エンジニア専門のフォロワーチームがあなたのキャリアをサポートします。業務での悩みや相談はもちろん、解決のための企業交渉までしてくれるので、安心して目の前の業務に集中できます。また、社内勉強会や表彰制度など、成長や頑張りを称賛する文化が根付いています。 3. 多彩な案件でDXの最前線へ! 🤝 飲食、医療、物流、ITサービスなど、様々な業界のデータ分析やAI開発案件に携われます。データサイエンティスト、データアナリスト、BIエンジニアなど、幅広い職種でDX人材としてスキルを磨き、市場価値を高めることができます。 ✍️ 主な仕事例: ・飲食業界向けデータ分析 ・飲食店向けAIチャットボットプロンプト改善(ChatGPT/自然言語処理) ・テレビ業界向けデータ分析基盤開発 ・物流業界向け帳票開発(PowerBI) ・建設系企業向けダッシュボード構築(Tableau) ・大手企業DX及びデータ分析(機械学習/データマイニング) 🌟使用ツール例 ・データアナリスト:GoogleAnalytics、SAS、Salesforce ・BIエンジニア:Tableau、PowerBI、Looker Studio ・データサイエンティスト:TensorFlow、Keras、PyTorch、ChatGPT関連ツールなど ・データエンジニア:AmazonRedshift、BigQuery、DWH、ETLなど
🌟こんな方を募集しています! 【✅必須】 ⬇️以下のいずれかを満たす方⬇️ ・PythonやRを用いた機械学習モデルの開発、またはデータ分析経験が1年半以上 ・クラウド環境でのデータ基盤構築経験が1年半以上 ・TableauまたはPower BIを用いたダッシュボード作成、およびSQLでのデータ処理・抽出経験がそれぞれ2年以上 ・複数のプロジェクトでDX推進を経験された方(合計3年以上) 【✴️こんな方と一緒に働きたい!】 ・データ領域に強い関心がある方 ・新しい技術やツールにアンテナを張り、キャッチアップを楽しめる方 ・実務経験は浅くても、有名企業で活躍したいという意欲がある方 ・将来的に、現場のリーダーやマネジメントに挑戦したい方
2005年創業以来、独自の経営戦略で黒字経営を継続するレバレジーズは、2024年度に年商1428億円を達成した急成長中のメガベンチャーです。「感情への貢献」をテーマに、IT、ヘルスケアなど40以上の事業を展開。年間100億円規模の投資で10以上の新規事業を創出するなど、常に新しい価値を生み出し続けています。渋谷スクランブルスクエアに本社を構え、6年連続「働きがいのある会社」に選出される、高い成長性と働きやすさを両立した企業です。
650~1000万
ミッション:大手クライアントのデータ利活用をリードし、データドリブンな意思決定を支援 小売・サービス・金融・通信など多種多様な業界において、データ分析基盤構築から、顧客分析、需要予測、BIによるKPI可視化まで、データ利活用をワンストップでリードします。ご経験と志向性に応じて、データエンジニアまたはデータサイエンティスト、あるいはその両方を担当します。 データ基盤構築(データエンジニア): データパイプライン、DWH、データマート、CDP、データベースなどの設計/構築、運用。 生成AI活用におけるデータ整備。 データ分析・提案(データサイエンティスト): 企業保有データ(ビッグデータ)の要件分析、機械学習などのモデル構築。 BIツールを用いたデータ可視化・ダッシュボードの利活用提案、分析結果に基づいたソリューション提案。 プロジェクトマネジメント: PMO / PM / PLとして、データ関連プロジェクトの上流から下流までを統括。 若手データエンジニア/データサイエンティストの育成・マネジメント。 ✨ ポジションの魅力 直受け100%の裁量: 大手クライアントからの直受け案件が100%であり、「言われた通りに仕事をする」ではなく「自ら提案を行っていく」がスタンダード。 ワンストップソリューション: 基盤構築、BI、データ分析、運用までワンストップでソリューションを提供し、社会価値創造に携われる。 PM/PL経験を活かせる: プロジェクトマネジメントと、ラインマネジメント(組織管理)の両方に携わるチャンスがある。 充実した学習環境: 270種類以上の資格取得支援制度、最新技術(生成AI、LLMなど)の知見を深める環境が充実。
必須要件(MUST) ①マネジメント/リード データ関連プロジェクトにおいて、PMO / PM / PL のいずれかの経験(年数不問)。 ②技術・実務経験 SQL・Pythonを用いたデータ分析、データコンサルタント、データマネジメント、データ基盤構築エンジニアのいずれかの実務経験を3年以上。 歓迎要件 Snowflake/BigQuery/Redshift等のDBからのデータ抽出経験、R/Python等のデータ分析・レポーティング経験、AWS/GCP/Azureの実務経験、生成AI/NLP/LLMに関する知見、統計・機械学習の知見、ラインマネジメント経験。 求める人物像 課題解決力、活発なコミュニケーション、最新技術の習得に貪欲な方、主体的に行動できる方。
テクノロジーコンサルティング事業、インキュベーション事業(新規事業開発)
500~850万
小売り・製造業界のお客様向けに、業務効率化やデジタル変革を実現するためのクラウドソリューションの設計、導入、サポートを担当していただきます。 在庫管理の最適化、需要予測、製造ラインのスマート化など業界特有の課題に対し、Google Cloud等のクラウド技術や最先端の生成AI技術を活用した提案・開発を行います。 プライム案件が豊富で、要件定義から設計、実装、運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプラインの設計、実装、ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発およびサービスの提案 ・セキュリティ、パフォーマンス、コスト最適化のコンサルティング ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 【開発環境】 言語:Go, Java, Python, Kotlin, TypeScript DB:Cloud SQL, BigQuery, Cloud Spanner, Firestore 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Backlog等 【ポジションの魅力】 ・最新の生成AI技術(Gemini, Cursor, Devin等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。 ・Google Cloudのトップクラスの実績を持つ企業で、大規模なプライム案件に携われます。
【必須】 ■ビジネスレベルの日本語コミュニケーション能力 ■以下のいずれかの技術領域での経験(2年以上) ・パブリッククラウド(Google Cloud/AWS/Azure)の設計/構築/運用 ・フロントエンド開発(Vue/React/Angular) ・バックエンド開発(Go, Java, Python等でのAPI開発) ・インフラ設計・構築・運用 ・DWH/ビッグデータ基盤の設計・構築 ・生成AIを活用したソリューション提案・開発 ・受託開発における要件定義~運用までの一連の経験 【歓迎】 ・小売り、製造業での業務システム(在庫・発受注・工程管理)の開発経験 ・大規模トラフィック、高負荷環境下でのインフラ設計・構築・運用経験 ・コンテナ技術(Docker、Kubernetes)、DevOpsの実践経験 ・機械学習に関する知識・経験 【求める人物像】 ・現場の業務課題を理解し、最適なソリューションを提案できる方 ・チーム協働を重視し、円滑なコミュニケーションができる方 ・新しい技術や知識を積極的に吸収し、常に成長を続ける意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
500~850万
変革期にある商社・金融・通信業界の顧客に対し、クラウド技術を駆使したソリューションの提供を行います。 巨大な商流を支えるサプライチェーンマネジメントシステムや、高度なリスク管理が求められる金融取引システム、FinTechなどのプロジェクトにおいて、最先端の生成AI技術やクラウドインフラを活用し、ビジネス変革を支援します。 プライム案件が豊富で、要件定義から設計、実装、運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプライン、ETLプロセスの設計、実装 ・ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発およびサービスの提案 ・セキュリティ、パフォーマンス、コスト最適化のコンサルティング ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 【開発環境】 言語:Go, Java, Kotlin, Python DB:Cloud Datastore, Firestore, Cloud SQL, Cloud Spanner 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Wrike, Backlog等 【ポジションの魅力】 ・最新の生成AI技術(Gemini, Cursor, Devin等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。 ・商社、金融、通信といった大規模かつミッションクリティカルな業界のDXに携われます。
【必須】 ■受託開発における要件定義、設計、開発、テスト、運用までの一連の工程の経験 ■以下のいずれかの技術領域での経験(2年以上) ・フロントエンド開発(React、Vue.jsなど) ・バックエンド開発(Java、Python、Goなど) ・インフラ構築、運用 ・ネットワークやセキュリティ設計、構築 【歓迎】 ・商社、金融、通信業界での経験または知識 ・大規模データを扱うプロジェクトの経験 ・ミッションクリティカルなシステム開発経験 ・大規模トラフィック、高負荷環境下でのインフラ運用経験 ・コンテナ技術(Docker、Kubernetes)に関する知識・経験 ・DevOpsの実践経験 【求める人物像】 ・顧客の課題解決に真摯に向き合い、最適なソリューションを提案できる方 ・チームワークを重視し、周囲と協調して業務を進められる方 ・新しい技術や知識を積極的に吸収し、常に成長を続ける意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
400~600万
ミッション:大手クライアントのデータドリブンな意思決定を上流から支援 小売、サービス、金融、通信など、さまざまな業界の大手クライアントに対し、データ分析基盤構築から顧客分析、需要予測、BI可視化・レポーティングまで、幅広いデータ利活用をリードします。 業務範囲: データ分析基盤(DWH・DM)の設計/構築。 データの加工/集計/抽出、分析設計/実施。 機械学習モデル構築、ダッシュボード(BI)の設計/構築。 施策の実施と効果分析、生成AI活用におけるデータ整備。 プロジェクトへの関わり: 大手クライアント・大手SIerとのプロジェクトに、上流から下流まで全工程で伴走。 「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」スタンス。 使用技術: 言語:SQL, Python, R ほか クラウド環境:GCP, AWS, Azure DB・DP例:BigQuery, Redshift, Snowflake, Databricks ほか BIツール例:Tableau, Looker Studio, PowerBI ほか ✨ ポジションの魅力(詳細化) 成長機会: 実務経験の浅い方には、入社後最大2ヵ月程の座学研修(SQL, Tableau, Python, 統計など)を提供。微経験からデータ分析のプロフェッショナルへの第一歩を踏み出せる。 技術力と洞察力: データベース設計、クエリ最適化などの技術的スキルに加え、ビジネス課題を解決するためのデータの洞察力(インサイト)が磨かれる。 基礎能力向上: 日本トップクラスの大規模企業のプロジェクトを通じ、「きめ細かい」シゴトを行うビジネスマンとして大切な基礎能力が最高レベルで身につく。
必須スキル(MUST) 以下の両方の経験をお持ちの方。 ・IT業界での就業経験(2年以上) 以下いずれか必須(1年以上) ・システム開発経験(Python、Java、Reactなど) ・データ抽出 または データ分析の実務経験 ・データ構築の実務経験 歓迎スキル(WANT) 以下の経験・知識をお持ちの方は優遇いたします。 ①データ基盤/DWH経験: DWH・データ基盤構築、データマートの設計・開発、BigQuery・Amazon Redshiftなどを用いたビッグデータハンドリング業務。 ②分析スキル: SQLを用いたデータ業務経験、定量データを用いたデータ分析・レポーティング経験。 ③ツール経験: Power BI や Tableau におけるダッシュボード構築経験。 ④クラウド経験: GCP / AWS / Microsoft Azure いずれかの導入・開発・実務経験。 ⑤その他: デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)、特定の業界におけるビジネス知識。
テクノロジーコンサルティング事業、インキュベーション事業
500~850万
ゲームおよびデジタルメディア業界の顧客に特化したクラウドソリューションの設計、導入、サポート及びアプリケーション開発を担当します。 クラウドエースはGoogle Cloudのトップクラスの実績を誇る企業であり、主に受託開発プロジェクトにおいて、最先端の生成AI技術やクラウドインフラを駆使し、顧客のビジネス変革を支援します。プライム案件が豊富で、要件定義から開発・運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプライン、ETLプロセスの設計・実装、ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発・提案 ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 ・プロジェクトマネージャーとの連携、新技術の調査・適用 【開発環境】 言語:Go, Java, Kotlin, Python, TypeScript DB:Cloud Datastore, Firestore, Cloud SQL, Cloud Spanner 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Wrike等 【ポジションの魅力】 ・プライム案件多数のため、上流工程から運用まで全体を俯瞰して携われます。 ・最新の生成AI技術(Gemini, Cursor等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。
【必須】 ・クラウドプラットフォームを利用したインフラ構築経験(3年以上) ・以下いずれかの技術領域での経験(3年以上):フロントエンド開発/バックエンド開発/インフラ構築・運用/データエンジニア ・生成AIの基本的な理解/チームでの開発経験/顧客との折衝経験 ・受託開発における要件定義~運用までの一連の工程経験 【歓迎】 ・ゲーム業界、デジタルメディア業界の知識・開発経験 ・大規模トラフィック、高負荷環境下でのインフラ運用経験 ・コンテナ技術(Docker, Kubernetes)、DevOpsの実践経験 ・機械学習に関する知識・経験 【求める人物像】 ・顧客のニーズに応じた柔軟な思考と提案力を持つ方 ・変化の激しい環境において積極的に学び続ける意欲を持つ方 ・技術革新に貢献したいという意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
700~840万
スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験
【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験) └10人以上のプロジェクト参画のご経験(6か月以上) └概要設計または要件定義のご経験 └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方
人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他
600~900万
リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。
【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方
リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援