アナリティクスサービスコンサルタント/エンジニア
700~2000万
有限責任監査法人トーマツ
東京都千代田区
700~2000万
有限責任監査法人トーマツ
東京都千代田区
データサイエンティスト
データアナリスト
データエンジニア
■業務内容 企業内外の様々なデータを活用したコンサルティング業務、及びアセット化。 データ活用や予測モデル開発(機械学習・AIを含む)によって、クライアントの抱えるビジネス課題を改善・解決しつつ、 それらをソリューション・サービス化し、業務への落とし込みまでおこなっています。 特定の領域に特化いただくことも、幅広い領域で活躍いただくことも可能です。 ■業務提供分野(例) ・ データマネジメント、ガバナンスの支援 ・データ利活用のための体制・プロセスの整備支援 ・ 分析プラットフォーム構築・高度化の支援 ・ MLOpsやAIOpsなどの運用効率化 ・ AIガバナンスの支援 ・ IoTデータ活用
[必須要件] 以下のいずれかの経験があること ・機械学習を含む分析コンサルティング・システム構築支援 ・システム設計(要件定義など)やDB設計 ・DWH・メタデータ管理などのデータマネジメントコンサルティング・導入支援 ・クラウド環境構築 ・AIソリューションやBIツールのコンサルティング・導入支援 [あると望ましい要件] ・英語力 ・マネジャー以上の職種については、プロジェクトマネジメント、チームマネジメントのご経験
大学院(博士)、大学院(法科)、6年制大学、大学院(その他専門職)、大学院(修士)、大学院(MBA/MOT)、4年制大学
正社員
無
有 試用期間月数: 6ヶ月
700万円〜2000万円
一定額まで支給
07時間00分 休憩60分
09:30〜17:30 通勤手当(会社規定に基づき支給)、残業手当(残業時間に応じて別途支給)
有
有
有
126日 内訳:完全週休2日制、祝日 日曜 土曜
10~25日
健康保険 厚生年金 雇用保険 労災保険
東京都千代田区
在宅勤務 リモートワーク可 副業OK 時短制度 服装自由 出産・育児支援制度 資格取得支援制度 U・Iターン支援
手当:時間外勤務手当、休日出勤手当、深夜勤務手当、通勤手当、出張手当など 各種制度:生命保険(総合福祉団体定期保険)、財形貯蓄、iDeCo(個人型確定拠出年金)、各種クラブ活動補助、 生殖医療サポート(不妊治療・卵子凍結等)、産前講座、産後ケア教室、不妊治療休職制度、配偶者帯同休職制度、育児コンシェルジュサービス、ベビーシッター利用補助制度、トーマツ健康保険組合のカフェテリア方式による育児・介護補助クーポンやスポーツクラブ・各種宿泊施設の割引など充実した福利厚生制度 その他:実務補習所費用、公認会計士協会登録費用・年会費を全額法人負担、公認会計士開業登録関連費用(修了考査対策講座受講料、修了考査受験料)の法人負担
監査・保証業務 -会計監査 -Audit Innovation -IPO(株式上場) -IFRS(国際会計基準) -監査アドバイザリー リスクアドバイザリー -アカウンティング&インターナルコントロール -サイバー -ストラテジックリスク
最終更新日:
650~1000万
ミッション:大手クライアントのデータ利活用をリードし、データドリブンな意思決定を支援 小売・サービス・金融・通信など多種多様な業界において、データ分析基盤構築から、顧客分析、需要予測、BIによるKPI可視化まで、データ利活用をワンストップでリードします。ご経験と志向性に応じて、データエンジニアまたはデータサイエンティスト、あるいはその両方を担当します。 データ基盤構築(データエンジニア): データパイプライン、DWH、データマート、CDP、データベースなどの設計/構築、運用。 生成AI活用におけるデータ整備。 データ分析・提案(データサイエンティスト): 企業保有データ(ビッグデータ)の要件分析、機械学習などのモデル構築。 BIツールを用いたデータ可視化・ダッシュボードの利活用提案、分析結果に基づいたソリューション提案。 プロジェクトマネジメント: PMO / PM / PLとして、データ関連プロジェクトの上流から下流までを統括。 若手データエンジニア/データサイエンティストの育成・マネジメント。 ✨ ポジションの魅力 直受け100%の裁量: 大手クライアントからの直受け案件が100%であり、「言われた通りに仕事をする」ではなく「自ら提案を行っていく」がスタンダード。 ワンストップソリューション: 基盤構築、BI、データ分析、運用までワンストップでソリューションを提供し、社会価値創造に携われる。 PM/PL経験を活かせる: プロジェクトマネジメントと、ラインマネジメント(組織管理)の両方に携わるチャンスがある。 充実した学習環境: 270種類以上の資格取得支援制度、最新技術(生成AI、LLMなど)の知見を深める環境が充実。
必須要件(MUST) ①マネジメント/リード データ関連プロジェクトにおいて、PMO / PM / PL のいずれかの経験(年数不問)。 ②技術・実務経験 SQL・Pythonを用いたデータ分析、データコンサルタント、データマネジメント、データ基盤構築エンジニアのいずれかの実務経験を3年以上。 歓迎要件 Snowflake/BigQuery/Redshift等のDBからのデータ抽出経験、R/Python等のデータ分析・レポーティング経験、AWS/GCP/Azureの実務経験、生成AI/NLP/LLMに関する知見、統計・機械学習の知見、ラインマネジメント経験。 求める人物像 課題解決力、活発なコミュニケーション、最新技術の習得に貪欲な方、主体的に行動できる方。
テクノロジーコンサルティング事業、インキュベーション事業(新規事業開発)
400~600万
ミッション:大手クライアントのデータドリブンな意思決定を上流から支援 小売、サービス、金融、通信など、さまざまな業界の大手クライアントに対し、データ分析基盤構築から顧客分析、需要予測、BI可視化・レポーティングまで、幅広いデータ利活用をリードします。 業務範囲: データ分析基盤(DWH・DM)の設計/構築。 データの加工/集計/抽出、分析設計/実施。 機械学習モデル構築、ダッシュボード(BI)の設計/構築。 施策の実施と効果分析、生成AI活用におけるデータ整備。 プロジェクトへの関わり: 大手クライアント・大手SIerとのプロジェクトに、上流から下流まで全工程で伴走。 「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」スタンス。 使用技術: 言語:SQL, Python, R ほか クラウド環境:GCP, AWS, Azure DB・DP例:BigQuery, Redshift, Snowflake, Databricks ほか BIツール例:Tableau, Looker Studio, PowerBI ほか ✨ ポジションの魅力(詳細化) 成長機会: 実務経験の浅い方には、入社後最大2ヵ月程の座学研修(SQL, Tableau, Python, 統計など)を提供。微経験からデータ分析のプロフェッショナルへの第一歩を踏み出せる。 技術力と洞察力: データベース設計、クエリ最適化などの技術的スキルに加え、ビジネス課題を解決するためのデータの洞察力(インサイト)が磨かれる。 基礎能力向上: 日本トップクラスの大規模企業のプロジェクトを通じ、「きめ細かい」シゴトを行うビジネスマンとして大切な基礎能力が最高レベルで身につく。
必須スキル(MUST) 以下の両方の経験をお持ちの方。 ・IT業界での就業経験(2年以上) 以下いずれか必須(1年以上) ・システム開発経験(Python、Java、Reactなど) ・データ抽出 または データ分析の実務経験 ・データ構築の実務経験 歓迎スキル(WANT) 以下の経験・知識をお持ちの方は優遇いたします。 ①データ基盤/DWH経験: DWH・データ基盤構築、データマートの設計・開発、BigQuery・Amazon Redshiftなどを用いたビッグデータハンドリング業務。 ②分析スキル: SQLを用いたデータ業務経験、定量データを用いたデータ分析・レポーティング経験。 ③ツール経験: Power BI や Tableau におけるダッシュボード構築経験。 ④クラウド経験: GCP / AWS / Microsoft Azure いずれかの導入・開発・実務経験。 ⑤その他: デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)、特定の業界におけるビジネス知識。
テクノロジーコンサルティング事業、インキュベーション事業
600~900万
リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。
【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方
リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援
700~840万
スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験
【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験) └10人以上のプロジェクト参画のご経験(6か月以上) └概要設計または要件定義のご経験 └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方
人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他
500~900万
新規モバイル/PCクロスプラットフォームゲームプロジェクトにおける事業データ分析を担当いただきます。 日本市場でのサービス運営に必要なKPI(DAU、リテンション、課金率、ARPPUなど)のモニタリングや、インゲームデータを活用したユーザー行動・課金動向分析が主な業務です。 分析結果をもとに、事業戦略や運営施策の改善提案を行い、海外開発チームとの連携も含めてサービスの成長に貢献するポジションです。 具体的には下記の業務です。 ・ゲームKPIのモニタリングおよびレポート作成 ・インゲームデータを用いたユーザー行動分析(リテンション、課金動向など) ・事業課題の抽出と改善提案 ・データ収集、加工
必須経験・スキル ・ゲーム企業でデータアナリストとしてのプロジェクト管理経験 1年以上 ・Python、R、SQL、Tableau、Power BI等のBIツールの使用経験(使用経験とは、分析モデルを作りそれを使って分析ができるレベル) ・データ収集、加工、分析及びレポーティング経験 歓迎経験・スキル ・ゲームの開発経験、運用経験 ・ゲームログ分析経験 ・Data Visualization(Tableau、Power BIなど)の知識 ・外国語(韓国語、英語など) 人物像 ・ゲームビジネス理解をお持ちの方 ・データから戦略を提案できる力をお持ちの方
■PCオンラインゲームの開発及びサービスの提供 ■モバイルゲームの開発及びサービスの提供 ■パブリッシング事業 ■ポータルサイトの企画及び運営 1994年に韓国ソウル市で設立され、その後日本へ本社を移転いたしました。創業以来、良質なオンラインゲーム、モバイルゲーム及びソーシャルゲームを制作・開発、配信してまいりました。代表的なゲームタイトルである「メイプルストーリー」、「アラド戦記」、「カウンターストライク・オンライン」、「マビノギ」及び「サドンアタック」といった同社が提供
700~1000万
【職務内容】 「朝日新聞のデジタル版」は日本のニュース業界をリードする、月間約1.2億PVのニュースサービスです。朝日新聞(デジタル版)の分析基盤には、膨大なデータが集まっており、ビジネスの成果を最大化するための可能性が広がっています。 データアナリストは、朝日新聞(デジタル版)の分析基盤に蓄積された多様なデータを活用して、プロダクトの成長に向けた意思決定をリードすることがミッションです。データチームの一員として、各種分析や施策の効果検証、社内で広く利用されるダッシュボードの構築を担っていただきます。適性次第では分析ユニットのリーダーとして、アナリストの育成や分析プロジェクトの進捗管理を通じてデータ活用を推進していただきます。 【具体的な業務内容】 チーム内のデータエンジニアのほか、記者部門のメンバー、PdMやマーケターと連携しながら、以下のような業務に幅広く関わっていただきます。 ・各種プロダクトのKPI設計支援とモニタリング、KPIマネジメントの仕組みづくり ・アドホックなデータ分析を通じたプロダクトの課題特定と改善提案 ・A/Bテストを含む施策の効果検証の設計と検証 ・TROCCOとBigQueryを使ったデータマートのモデリングと最適化、実装と運用 ・TableauやLooker StudioなどのBIツールを用いたダッシュボードの構築・運用 ・ユニットメンバーのタスクマネジメント(求人ID:392373)
【必須】 ・ データアナリストとしての3年以上の実務経験 ・ SQLを使ったデータ抽出・集計・分析の経験 ・ データ分析を通じてプロダクトやサービスの改善をリードしてきた経験 【歓迎】 ・ データエンジニアリングの実務経験 ・ 少人数のチームマネジメントの経験 ・ TableauやLooker StudioなどのBIツールを使った可視化の経験
【スポーツ・文化・芸術、、 日本全国/老若男女を対象にした独自の販売戦略】 朝日新聞社では、新聞・デジタルメディア(朝日新聞デジタル)によるコンテンツ事業、展覧会などのイベント事業、不動産事業などの事業展開をしています。 一般紙として国内で大きなシェアを占めており、全国各地にあるテレビ朝日の系列局も一体となって、情報提供を行っています。
800~1200万
AI/ML領域における技術選定、アーキテクチャ設計、および開発チーム(3~5名想定)のリードを担当します。AIシステム全体のアーキテクチャ設計:自律型エージェント、RAG、ボイスボットなどが連携するマイクロ サービス全体の設計。・Vertex AI/Cloud Run/Vector Search等を組み合わせた高可用性・低レイテンシな推論基盤のグランドデザイン。2.MLOps / LLMOps の戦略策定と導入:・AIモデルの継続的な評価/改善/デプロイを自動化するパイプライン(CI/CD/CT)の設計と標準化。3.技術マネジメントと品質管理:・メンバーのコードレビュー、技術指導、採用活動への関与。・AIの回答精度(ハルシネーション対策)やセキュリティ基準の策定。
【必須要件】・WebアプリケーションまたはMLシステムのアーキテクチャ設計・選定の実務経験(テックリードとしての経験)。・3名以上のエンジニアチームにおけるPL/PM経験。・Python 等を用いたAI/MLプロダクト の本番運用経験(開発だけでなく、リリース後の運用・障害対応まで)。 【歓迎するスキル・経験】 ・大規模言語モデル(LLM)を活用したサービスの立ち上げからリリースまでのリード経験。 ・マイクロサービスアーキテクチャの設計・運用経験。 ・金融機関または高いセキュリティレベルが求められる環境でのシステム開発経験。
■銀行業務
800~1200万
全社的なデータ戦略に基づくデータ基盤(データレイクハウス)の設計・構築・運用、およびデータエンジニアチームのリードを担当します。 1.データプラットフォームのグランドデザイン: ・Google Cloud(BigQuery/GCS/Dataflow等)を活用した、拡張性と耐障害性に優れたデータ基盤の全体設計。・バッチ処理とストリーミング処理を統合したモダンなパイプラインの設計。2.データガバナンスとセキュリティ設計:・VPC Service ControlsやIAMを駆使した、金融レベルのセキュリティ設計。・個人情報保護法や金融規制に対応したデータカタログの整備、アクセス制御ポリシーの策定。 その他勤務条件欄にも記載
【必須要件】・クラウド(Google Cloud/AWS, Azure)における大規模データ分析基盤のアーキテクチャ設計・構築経験(5年以上目安)。・データモデリング(スタースキーマ/Data Vault等)の深い知識と実践経験。 ・エンジニアチームのリーダー経験、または技術的な意思決定の責任者としての経験。 【歓迎するスキル・経験】 ・金融業界におけるデータガバナンス、コンプライアンス(FISC等)に関する知識。 ・Infrastructure as Code (Terraform) を用いた大規模インフラの管理・運用経験。
■銀行業務
600~800万
Google Cloud (BigQuery, Cloud Storage) を中核としたデータ分析基盤・AI学習基盤の設計・構築・運用を担当していただきます。 1.データレイクハウスの構築:・非構造化データ(Bronze)から構造化データ(Gold) までのパイプライン設計。BigQueryとGCSを活用した効率的なデータ管理。2.データ収集パイプラインの開発:・Cloud RunやCloud Schedulerを活用した、外部サイトからのスクレイピング(データ取得)基盤の構築と運用。・基幹システムからのデータ連携(ETL/ELT)処理の実装。3.データガバナンスと品質管理:・機密性の高い金融データを安全に扱うためのセキュリティ設計(IAM、VPC Service Controls)およびデータカタログの整備。
【必須】・SQLを用いた複雑なデータ抽出/加工/集計の実務経験・Python 等のスクリプト言語を用いたデータ処理(ETL)の開発経験・クラウドベースのDWH(BigQuery, Redshift, Snowflake等)の設計/構築/運用経験 ・テーブル設計、パーティショニング、インデックス設計など、DBパフォーマンス・チューニングの知識 【歓迎】 ・Webスクレイピング(Selenium, Puppeteer等)によるデータ収集システムの構築経験 ・データレイク / データレイクハウスのアーキテクチャ設計経験
■銀行業務
481~742万
Web広告の約1/4で利用される急成長SaaS「Squad beyond」のデータ活用を推進し、「プロダクトグロース」と「ビジネスオペレーションの最適化」という両輪をデータで支えることがミッションです。 データ集計・可視化のアウトプットだけでなく、ビジネスインパクト創出とデータ基盤強化という2軸でご活躍いただくことを期待しています。 ■経営・プロダクト戦略支援 (約50%)・経営指標(KPI)や利用データの集計・可視化・分析■ビジネスオペレーション支援 ・ビジネスサイドのデータに関する課題や要望をヒアリング、他部署の意思決定と業務効率化を支援■データ基盤・先端技術への挑戦(エンジニアリング領域)
【必須】・SQL/Pythonを用いたデータ抽出/データ分析のご経験 【歓迎】・広告・マーケティング周りのデータ分析経験 ・RedashやMetabaseなどのBIツールを使用したダッシュボード作成経験 【魅力】■唯一無二の急成長プラットフォームをデータで推進、自身の貢献していることを実感できる ■「ユーザーの連続した業務」と希少性の高いデータを保有、データ活用でプロダクトグロースとユーザー層拡大に貢献可能 ■従業員の平均年齢32歳。柔軟に職種を超えて議論できるフラットな環境、ビル1階の「Squad Base Cafe」を無料で利用可能◎
WEBマーケティングプラットフォーム「Squad beyond」の開発・提供/マーケティング支援