SARデータ分析エンジニア/小型SAR衛星の開発/宇宙業界/Synspective社
600~900万
株式会社Synspective
東京都江東区
600~900万
株式会社Synspective
東京都江東区
データサイエンティスト
データエンジニア
■部門・ユニット ソリューション開発部は、最先端の小型SAR衛星を活用してサステナブルで安心安全な日本および世界を支援する株式会社Synspectiveにおいて、自社衛星や他社衛星を含む多様な外部データと独自のAI解析・データサイエンスを組み合わせたソリューションの提供に注力しています。 GEOINT Engineeringユニットは、主なソリューションの一つであるObject Detection and Classification(ODC)である、船舶や航空機などの検知・分類に関する情報サービスの開発・運用を中心に、安全保障領域でのソリューションを提供しています。具体的には、国内外の顧客ニーズに基づいたソリューション提案や開発、仕様調整、運用を担っています。画像判読や分析を通して、開発用データセット生成、またデータおよびサービスの品質評価も担っています。この品質評価を通して他部署と連携し、データ価値の向上や今後の衛星開発へのフィードバックも実施しています。 ■担当業務 自社衛星データの自動解析サービスのうち、Object Detection and Classification (ODC)をはじめとした安全保障領域におけるデータ分析、サービス開発支援および運用をご担当いただきます。 具体的には: ・顧客ニーズに基づいた自動解析サービスの企画、提案 ・自動解析サービスの運用 ・衛星データ判読分析 ・自社衛星データおよび分析結果の品質管理の実施、衛星開発・衛星データ生産の他部署へのフィードバック ■仕事の魅力 ・経験豊富な専門家とともに分析技術を高めることができる ・個人のアイデアを自ら企画し、具現化できる ・最先端のテクノロジーを自社サービスへ活用できる ・日本および世界の安全保障環境構築に貢献できる ■変更の範囲 会社の定める範囲
■必須要件 ・リモートセンシングデータ判読分析経験3年以上 ・安全保障分野への興味関心 ・英語への抵抗感がない方 ■歓迎要件 ・安全保障分野用途のSARデータ判読分析経験 ・安全保障関連の業務経験 ・レーダーおよびレーダーデータの基礎知識
英語で日常会話が可能、英語で簡単な会話が可能
正社員
無
有 試用期間月数: 3ヶ月
600万円〜900万円
一定額まで支給
08時間00分 休憩60分
有 コアタイム (11:00〜15:00)
有
有
125日 内訳:完全週休2日制、土曜 日曜 祝日
健康保険 厚生年金 雇用保険 労災保険
<賃金形態> 年俸制 <賃金内訳> 年額(基本給):4,680,000円~7,680,000円 その他固定手当/月:28,000円~40,000円 固定残業手当/月:82,000円~120,000円(固定残業時間30時間0分/月) 超過した時間外労働の残業手当は追加支給 <月額> 500,000円~800,000円(12分割)(一律手当を含む) <昇給有無> 有 <残業手当> 有
東京都江東区
屋内全面禁煙
・住所: 東京都江東区三好3丁目10-3 ・受動喫煙対策あり: 屋内原則禁煙(敷地内に屋外喫煙所あり)
リモートワーク可 副業OK
・副業可(申請が承認された場合に限る、二重の雇用契約は不可) ・リモートワーク可(出社可能範囲にお住まいの方に限る) ・交通費支給(上限3万円/月) ・語学学習費用サポート制度(上限3万円/月)
東京都江東区三好3-10-3
衛星製造工場 神奈川県大和市中央林間西3-7-1
・SAR画像データ販売 ・衛星データを利用したソリューションサービス ・小型SAR衛星の開発・運用
最終更新日:
800~1200万
▼募集背景 Findy Team+は、開発生産性を可視化をはじめ、経営層の意思決定支援 開発チームのAI共創、エンジニアのアウトカム志向推進を通じて 組織全体の価値最大化を目指すプロダクトです。 生成AIの普及によって開発スピードは格段に向上し、これまで以上に多くの プロダクトを市場に送り出せるようになりました。 とはいえ、本当に求められるのは“数”の多さだけではなく、“数×質”の掛け合わせです。 ユーザーに価値を届けるプロダクトを生み出すためには、開発現場にとどまらず 経営を含めたモノづくり全体の最適化が欠かせません。 さらに、AIを活用できる組織づくりには基盤や状況の可視化が不可欠であり 開発プロセスの重要性はますます高まっています。 こうした時代の変化に応えるべく、モノづくりの企画をサポートする『Findy Insights』 組織の生成AI活用状況を分析する『Findy AI+』をリリースし、AI時代のモノづくりの あり方を更新し続けています。 ▼業務内容 - Findy Team+の8つの開発チームに対する生成AI活用のサポート/導入促進 - 開発ワークフローの改善 (例:コードレビュー効率化、AIエージェントの活用やMCP featureの追加など) - AI活用に関する最新の技術調査・PoC・ナレッジのドキュメント化と展開 - 開発メンバーとのペアプロによるAIの実践と改善支援 - 開発者向けAI勉強会やワークショップの設計・実施 【例:AIエージェントDevinを活用した開発推進】 取り組み Devinを開発チームにジョインさせ、Lintルールやプルリク作成などの 基本プロセスを学習させつつ、軽微な修正やアラート対応などを任せています。 ジュニア〜ミドルレベルの小規模開発では、要件理解から設計・動作確認までの 一連をDevinに担わせる試行も進めており、既存PRやTODOの活用で 実行精度の向上なども図っています。 実績: 導入から2ヶ月で197件のPRをマージし、1日平均5件超のアウトプットを実現。 費用約30万円で、軽微なアラート対応やWant対応の7〜8割を自動化し、技術改善イシューの 生成でも成果を上げることができました。 また、個人のアウトプットを1.5倍にする事ができるメンバーも 出てくるなど徐々に活用が進んできています。 詳細: - https://tech.findy.co.jp/entry/2025/03/24/070000 - https://tech.findy.co.jp/entry/2025/06/02/070000 ▼AIの取り組み 私たちのチームでは、生成AI活用に非常に積極的で、エンジニアの7割以上が GitHub Copilot Agent mode、Cursor、DevinなどのAIエージェントを日常的に利用しています。 また、OpenAIやAnthropicなどのLLM APIを利用できる環境も整備済みで さらなるAI駆動開発を進められる環境があります。 プロダクト開発部では、生成AIに関する議論が活発に行われており、一部のメンバーは これらのAIツールを活用することで、アウトプットを1.5倍に向上させた実績があります。 ▼開発環境 開発言語:Ruby, TypeScript, GraphQL,Python,Go フレームワーク:Ruby on Rails, ReactApollo Client.FastAPI テスト:RSpec, vitest, VRT, playwright インフラ・ミドルウェア:AWS, MySQL,Redis, Docker CI/CD:GitHub Actions ツール:GitHub, Slack, Sentry, Notion, Datadog, Terraform, dependabot, Looker Studio AIツール: GitHub Copilot, Cursor, Cline, Devin, Dify.Claude Code
【必須スキル】 - Webアプリケーションの開発経験(フロント・バック問わず) - ChatGPT / GitHub CopilotなどのAIツールを業務で活用した経験 - 開発チームや関係者との円滑なコミュニケーション・伴走力 【歓迎スキル】 - AIツールに関するキャッチアップ - 社内向けイネーブルメントやデベロッパーエクスペリエンス改善の経験 - GitHub ActionsやCI/CDの整備、DevOps領域への理解 - LangChainなどLLM活用ツールへの知見・導入経験 【求める人物像】 - プロダクトや事業の成長に主体性に関わりたい方 - 周囲と協力しながら、開発を推進できる方 - 常に起きうる変化を楽しみながら開発に取り組める方
-
600~900万
ソリューション・インフラストラクチャチームは、衛星データや機械学習、画像処理アルゴリズムを用いたソリューション開発を担うサイトリライアビリティエンジニアリング(SRE)チームです 。 現在、データパイプラインおよびその他のソリューションにおけるインフラの設計・開発・保守を担当するSREを募集しています 。 なお、一部のプロジェクトの性質上、本ポジションの応募は日本国籍をお持ちの方に限定させていただきます 。 担当業務 ソリューション開発部は、最先端の小型SAR衛星を活用してサステナブルで安心安全な日本および世界を支援する株式会社Synspectiveにおいて、自社衛星や他社衛星を含む多様な外部データと独自のAI解析・データサイエンスを組み合わせたソリューションの提供に注力しています。 ・ソフトウェアソリューション向けの、拡張性・信頼性・セキュリティに優れたインフラの設計・開発 ・ソリューション監視メカニズムの開発・運用 ・クラウド利用コストとアラート通知の最適化 ・データ処理パイプラインのインフラ維持 ・新規データ処理のためのインフラ設計・実装 具体的には ・インフラ環境におけるデプロイメント手法およびセキュリティの改善・推進 ・継続的デプロイメント(CD)システムの構築に向けた技術選定と開発 ・ユーザー管理VM(仮想マシン)の管理ポリシー策定およびツールチェーンの開発 仕事の魅力 ・衛星データとソフトウェアを支えるクラウドインフラの構築・運用を通じて、最先端の技術学び、活用することができる ・合成開口レーダー(SAR)データを活用して世界を変えるという壮大な事業に参加できる ・多様な専門性を持つエンジニアと共に成長し、難易度の高い目標に挑戦できる ・多様なバックグラウンドを持つメンバーと協働できる
必須要件 ・3年以上のSRE/DevOpsとしての経験 ・KubernetesおよびDockerを使用して、いずれかの主要なクラウドプロバイダーで、顧客向けのクラウドネイティブシステムを構築した経験 ・Terraform、OpentofuなどのInfrastructure as Codeツールの使用経験 ・コンピュータネットワークおよびSSLに関する十分な知識と経験 ・SLA/SLOの定義および実装、SLIの監視に関する経験 ・CI/CDツールとプロセスに関する経験 (例: Jenkins、Circle CI、Cloud Deploy、GitHub Actions、またはその他継続的デプロイメントシステム) ・Linux環境でのシステム運用・開発経験 ・社内向けソフトウェアの開発経験 (要件収集、設計、プログラミング、保守) - 推奨言語: PythonおよびGolang ・アジャイルの考え方を取り入れた、柔軟な開発環境での経験 ・SRE以外のチームと連携して業務を推進した経験 ・英語でのコミュニケーションにも意欲的な方 歓迎要件 ・Terraformを用いたインフラ構築の経験 ・Google Cloud Platformの実務経験 ・Grafana、Prometheus、LOKIスタックの経験
・SAR画像データ販売 ・衛星データを利用したソリューションサービス ・小型SAR衛星の開発・運用
650~1800万
《チーム紹介》 金融業界は、常に進化するテクノロジーと市場の変化に適応し、顧客に安心・安全なサービスを提供することが求められています。当チームは、生成AI等の先端的な技術とデータ分析・データマネジメントに係る専門知識を駆使し、金融機関が直面する複雑な課題に対応します。テクノロジーの進化を戦略的に取り込み、金融業界における構造的変化に対応することで、クライアントの「攻め」と「守り」の両面を支援します。寄稿も含め業界団体・協会の活動にも積極的に関わっており、業界リーダーとも協働し金融業界におけるデータ活用推進にかかる活動もリードしています。 《職務内容》 クライアントのビジネス課題や経営戦略に対して、生成AI等の先端的な技術やデータアナリティクス・データマネジメントに係る専門性を活かし、他の専門性を有するチームとも協業しながら、最適なソリューションを提案・実行するコンサルタントです。最新のテクノロジーやソリューションを活用した金融機関のトランスフォーメーション実現に向けた方向性を示すと共に、クライアントに寄り添いながら実際のプロジェクトを遂行して頂きます。 【具体的な案件例】 ・クライアントのビジネス戦略/デジタル戦略やデータ活用の現状を把握、課題・ニーズを明確化し、データ戦略の策定を支援 ・データ戦略を実現するためのデータアーキテクチャ・データ基盤の立案・実現を支援。あわせて、その運用を確実にするためのデータマネジメントの実現を支援 ・先進的な生成AI活用にかかる実証実験と実用化に向けた支援(チャレンジングな取り組みとして複数メディア等でも取り上げられています) ・金融データ活用推進協会における金融生成AIガイドライン策定にかかる全体アドバイザー ・グローバルに展開する大手金融機関におけるAIガバナンス態勢構築にかかる支援及び本格展開に向けた協議 《役割および責任》 ■マネージャー以上 ・金融機関のデータアナリティクスにかかるプロジェクトにおいてクライアント含むチームのリード ・クライアントの期待値管理やマネジメント層とのコミュニケーション、チームメンバーへの作業指示・品質レビューを含むプロジェクト管理 ・クライアントへの提案活動や、オファリング/ソリューション開発のリード ■コンサルタント/シニアコンサルタント 管理者指導のもと、以下の作業を実施していただきます。 ・クライアント業務/システムの分析、プロセス可視化、および課題の抽出と解決策検討 ・クライアントとのディスカッション及び報告等、プロジェクトの推進 ・クライアントへの提案やオファリング/ソリューション開発の推進
【必須(MUST)】 ・3年以上の実務経験 ・日本語ビジネスレベル以上(会話だけではなく読み書きも) 【適合経歴・知見】 ■マネージャー以上 ・コンサルティングファーム・シンクタンク、 SIベンダー・S/Wベンダー、金融機関等において、下記いずれかの経験を有すること ―データ戦略策定、データ利活用による業務改善、生成AI活用、データガバナンス構築などに関わるプロジェクトをリードした経験 ―データアナリティクス・データマネジメント・AI/生成AIに関連する事業開発やシステム構築・導入推進をリードした経験 ・クライアントや様々なステークホルダーと効果的な関係を構築でき、コミュニケーション・ファシリテーション・プレゼンテーションにかかるスキルを有する方 【歓迎(WANT)】 ・機械学習のモデルづくりや、生成AIを活用したシステム構築経験 ・データ活用基盤に関する企画・構想、設計・導入の経験 ・新しい技術やトレンドに対する知識と応用力
KPMGは監査法人、税理士法人、コンサルティングサービスを提供するプロフェッショナルファームです。KPMGグローバルでは現在、世界143ヶ国のメンバーファームに約273,000名のプロフェッショナルを擁し、サービスを提供しています。その中で、当社は、デジタルテクノロジーなどの最先端技術を活用し、クライアントのビジネスモデルやビジネスオペレーションをグローバル規模で変革するためのコンサルテーション・アドバイザリーサービスを提供しています。
600~900万
■ 担当業務 Data platformのうち、ヘビーユース顧客に向けた機能開発のリードを行っていただきます。 具体的には: ・ヘビーユース顧客向けサービスの要件定義、社内ステークホルダーとの要件調整 ・ヘビーユース向け顧客向け環境整備(ネットワーク等のインフラ設計、構築) ・Data platformのフロントエンド、バックエンドの設計、実装、試験 ・Data platformの運用(リリース、オンコール対応、トラブルシューティング) ■仕事の魅力 同社ではStriX衛星コンステレーションを構築、運用しています。Data platformはStriX衛星のデータを顧客に提供するためのインターフェースを担っています。 本ポジションでは、弊社の中でも特に衛星データをヘビーユースする顧客に向けたサービスの設計、開発、運用をリードしていただきます。 このサービスは国内のみならず、海外顧客も対象としたものとなります。 セールスチームや衛星チームなど、部門を超えた議論を進めて開発を進めることで、グローバルな顧客に対し、新しいサービスの開発を進める経験を得ることができます。 ■変更の範囲 会社の定める範囲 ■概要 ・世界に数社のみの小型SAR衛星事業者のうちの1社 ・内閣府「革新的研究開発推進プログラム(ImPACT)」の研究開発により誕生 ・2024年12月19日に東京証券取引所グロース市場に上場 ・自社開発した小型SAR衛星『StriXシリーズ』による観測データ・ソリューション提供を行う ■ 部門・ユニット :データプロダクション部 データプロダクション部は、独自の小型SAR(合成開口レーダ)衛星である「StriX」シリーズの衛星運用、画像データ生産、配信を行っています。 Data platform unitでは、StriX衛星シリーズが取得した観測データを顧客に販売、提供するためのシステム(Data platform)の開発、運用を担当しています。Data platformは顧客と衛星データを繋ぐシステムのため、Synspectiveのビジネスのハブになる役割を担っています。
■必須要件 ・システムの要件定義から設計、実装、試験までの一連開発をリードした経験 ・5名以上の開発チームのマネジメント経験(3年以上) ・5年以上のBackend開発経験またはインフラ構築経験 ・RDBのスキーマ設計を行なった経験、SQLの最適化を行った経験 ・日常会話レベル以上の英語力 ■歓迎要件 ・人工衛星もしくは宇宙業界に関する分野で開発を行った経験 ・GoogleCloudまたはAWS上での開発経験 ・Terraformを用いたクラウドインフラストラクチャの構築経験 ・React, typescriptを用いた3年以上のFrontend開発経験 ・クラウド、オンプレミスでネットワークを設計した経験 ・Node.js, typescriptを用いた3年以上のBackend開発経験、もしくは3言語以上のBackend開発経験 ・VPNや専用回線などのネットワークの設計、構築経験
・SAR画像データ販売 ・衛星データを利用したソリューションサービス ・小型SAR衛星の開発・運用
600~900万
■ 担当業務 衛星から地上局にダウンリンクされたミッションデータを処理し、SAR(Synthetic Aperture Radar)画像を生成する Data Processing Systemの開発・運用に携わっていただきます。 本ポジションは、単なる実装だけでなく チーム横断の技術調整やプロジェクト管理も担う、テクニカルリーダーとしての役割を期待しています。 具体的には: ・地上局から取得した衛星RAWデータ(FTP/TCPストリーミング)の受信・管理機能の設計・開発 ・不要なデータ混入や複数画像RAWが混ざったデータの前処理ロジックの設計・分割アルゴリズム開発 ・暗号化されたデータの復号処理パイプラインの設計・改善 ・SAR画像生成ソフトウェアとの インタフェース設計およびデータ提供処理 ・顧客オーダ情報にもとづく 処理モードの分岐、配信プロセス制御システムの実装 ・外部・内部ステークホルダーとの技術仕様調整、インタフェース策定開発チームのタスク管理・レビュー・技術方向性の提示 ・システム運用におけるパフォーマンス改善・障害対応の指揮 ■仕事の魅力 ・システムの中核となる データ処理基盤を自ら設計・主導できる ポジションです。 ・画像生成や衛星通信など、特殊領域の知識を身につけられます。 ・技術とプロジェクト推進の両方を担うため、キャリアとして テックリード → エンジニアリングマネージャー 等に成長しやすい役割です。 ■変更の範囲 会社の定める範囲 ■概要 ・世界に数社のみの小型SAR衛星事業者のうちの1社 ・内閣府「革新的研究開発推進プログラム(ImPACT)」の研究開発により誕生 ・2024年12月19日に東京証券取引所グロース市場に上場 ・自社開発した小型SAR衛星『StriXシリーズ』による観測データ・ソリューション提供を行う ■ 部門・ユニット : Data Production Departmentは、独自の小型SAR(合成開口レーダ)衛星である「StriX」シリーズの衛星運用、画像データ生産、配信を行っています。Ground Controlユニットは衛星運用するための管制システム・解析システムやSARプロダクトを生成する画像処理システムの開発・運用を行っております。
■必須要件 以下技術スキルとマネジメントスキル双方をお持ちの方 【技術スキル】 ・Linux環境でのアプリケーション開発経験 (開発言語:Go、C/C++、Rust、 Python、など) ・データ処理(ETLなど)パイプラインやストリーミングデータ処理に関わる開発経験 ・TCP/UDP、FTP などの通信プロトコルに関する知識 ・暗号化/復号処理に関する基本的な理解 ・Git などのバージョン管理ツールを用いた開発経験 【マネジメントスキル】 ・小〜中規模の開発チームをリードした経験 (タスク管理、レビュー、技術選定) ・ステークホルダーとの要件調整・仕様策定の経験 ・問題解決能力と、開発プロセス全体を俯瞰した判断力 ・技術とプロジェクト管理の双方に責任を持つ姿勢 ■歓迎要件 ・SAR、リモートセンシング、衛星データ処理に関する知識・開発経験 ・バッチ処理システムやワークフロー制御システムの開発経験 ・大規模データ処理基盤(HPC、クラウド、分散処理)に関する経験 ・暗号技術、セキュリティ仕様策定の経験 ・Docker/Kubernetes 等を利用したコンテナ・オーケストレーション経験 ・他部署との折衝や複数プロジェクトを横断する技術調整経験 ・英語での技術コミュニケーション(文書・会話)
・SAR画像データ販売 ・衛星データを利用したソリューションサービス ・小型SAR衛星の開発・運用
890~1200万
●ミッション 業種・業界を問わずデータの利活用を推進する企業の動きが活発になっている中、当社ではお客様のデータドリブン経営を推進していきます。 豊富なITソリューション導入実績とデータマネジメントの視点により、データ分析基盤の企画/設計、構築まで行い、データの利活用を支援いたします。 ●職務内容 ①職務/役割 プライムベンダーとして、お客様のDX推進部門や情報システム部門、データ利活用を行うユーザ部門と技術的な折衝含め対話しながら、データ分析基盤/データウェアハウス(DWH)の企画/設計、構築を担当していただきます。 ②業務内容 ・取り扱うデータはビッグデータとなり、分散処理やクラウドのPaaS,SaaSおよび各種パートナ製品を組み合わせてデータ分析基盤構築を行っていただきます。 ・最新技術動向の調査/検証を行い、新技術や新サービスの提案もお任せいたします。
●下記いずれかの経験、スキルを有する方 ・データモデリング、ETL処理、DWH構築、BI構築に関連するシステム構築案件において、要件定義、設計の経験(1年以上) ・Azure、AWS、GCPを用いたシステム構築経験(1年以上) ●歓迎する経験・スキル ・Snowflake、Databricks、MS Fabric導入経験 ・DMBOKを理解し、データマネジメント推進経験 ・アジャイル(Scrum)開発経験
-
600~1500万
データエンジニアとして、主に以下の何れかの役割を担っていただきます。 ①ITアーキテクト ・全社対象のデータ基盤・分析基盤導入(AWS等のクラウド基盤・DWH・DataLake・DataHub、BIツール等) ・データ利活用ニーズの拡大に合わせた、上記データ基盤・分析基盤の機能改善・システム構成の企画立案 ・ユーザー側でのDWH性能モニタリングと性能改善クエリチューニングを実施(PDCA) ・製品選定POCを実施(アジャイル開発) など ②データプロバイダー(データ提供・最適化) ・全社対象のデータ基盤上のデータ管理 ・ETLツール*1を活用したデータパイプライン設計等、データエンジニア業務の上流工程 ・安定したデータ基盤の維持・向上 など *1 社内に散在する業務データを抽出・収集し、データ活用やシステム間連携ができるよう加工を行うツール ③データ企画・整備 ・各部門のビジネスニーズに基づくデータマートの企画・開発 ・データ起点でのシステム要件定義、業務プロセス最適化、データモデル設計のコンサルティング など 【成長機会】 世界有数のグローバル金融グループで、全社ビッグデータ基盤のアーキテクチャ設計や、多様かつ膨大なデータの活用と管理に超上流工程から挑むことができます。 【キャリアパス】 データ人材のプロフェッショナルキャリアを歩むケース、IT部門での経験を積みシステム戦略・デジタル施策等を推進するキャリアを歩むケース等があります。 【デジタル戦略統括部について】 MUFGではデータに基づいた迅速な意思決定による更なる成長に向け、全社的な業務のデジタル化を推進し、あらゆる活動がデータ化されている状態をめざしています。その実現のため、デジタル戦略統括部では、全社的なデジタル基盤の整備と、コンサルティングやAIソリューション提供などの知見・経験を活用し、ビジネス部門および本部各部のDX推進を支援・牽引しています。 【職場環境】 当部はキャリア採用の社員が多数活躍しています。在宅勤務や時差勤務なども利用可能です。
①ITアーキテクト 【必須】 以下、いずれかのご経験をお持ちの方(事業会社・外部委託先企業、どちらの立場でも構いません)。 ・DWH・データ基盤の企画・構築・運用経験(3年以上目安*) ・金融機関のシステム開発プロジェクトへ参画した経験 ②データプロバイダー(データ提供・最適化) 【必須】 以下、いずれかのご経験をお持ちの方(事業会社・外部委託先企業、 どちらの立場でも構いません)。 ・SQLを使ったデータ加工経験のある方 ・特定のデータ基盤関連の技術・ツールに強みを有する方 ・利活用目的のデータ作成における要件定義・ジョブ設計などを主導できる方 ③データ企画・整備 【必須】 以下、いずれかのご経験をお持ちの方(3年以上目安*。事業会社・外部委託先企業、どちらの立場でも構いません)。 ・データ加工ツール(ACCESS、SQL等) を用いたデータ加工・集計業務の経験 ・金融機関でのデータ利活用経験 *経験年数は目安基準のため、未達の場合でも積極的なご応募を頂ければ幸いです
銀行事業 預金業務、貸出業務、商品有価証券売買業務、有価証券投資業務、内国為替業務、外国為替業務、社債受託および登録業務、金融先物取引の受託業務、その他付帯業務
800~1200万
【職務内容】 同社は「テクノロジー × イノベーションで驚きと感動を生み、世界を前進させる。 」をミッションに掲げています。 データとテクノロジーを駆使した自社プラットフォーム「RENOSY(リノシー)」をはじめとする多様なサ ービスを展開し、グローバル展開と事業拡大を見据えた組織の再定義を進めています。 AI不動産投資「RENOSY」を基軸に、国内外のグループ会社含めた事業でデータに基づいた意思決定支援 をリードし、データ分析の新たな「型」を創り上げていく役割を担います。 事業課題に対して高い解像度で向き合い、事業計画達成に向けた分析設計から解決策の提案、 さらには現場への実装までを一気通貫で推進する必要があります。 【具体的には】 ・ 具体的な業務内容 ・ 事業KPI策定と可視化 ・ データ分析に基づく事業課題の解決策立案 ・ 事業現場へのデータ活用指導と分析環境整備 ・ チームメンバーの成長支援 ・ 仕事概要 ・ AI不動産投資「RENOSY」を基軸に、国内外のグループ会社含めた事業でデータに基づいた意思決定 支援をリード ・ データ分析の新たな「型」を創り上げていく役割(求人ID:417816)
【必須】 ・ SQLを用いたデータ加工、データ分析の実務経験2年以上 ・ 下記いずれかの経験をお持ちの方 ・ 事業部へのヒアリングからKPI(成約率、解約率、LTV等)を定義し、分析結果に基づいて具体的な改善策を提案、その実行後の効果検証までを主導した経験 ・ 単なるデータ抽出に留まらず、仮説構築から施策の優先順位付け、ビジネスインパクトの試算までを一貫して行った経験 ・ 分析結果をビジネス側の言語に翻訳して提案し、周囲の合意形成を得ながらプロジェクトを前進させた経験 【歓迎】 ・ 統計解析/機械学習いずれかについての専門知識 ・ Python/Java/Ruby等のプログラミング言語の実務利用経験
【東証グロース上場、不動産×Techのメガベンチャー】 同社は、ユーザーのこだわりにマッチする不動産物件とリノベーションの組み合わせプランを人工知能が提案するアプリ「Renosy」を開発。 既存のレガシー産業にテクノロジー×イノベーションで戦略的に仕掛け、創業わずか10年で売上約1000億円という急成長を達成。 これまで不動産売買において生じていたロスや課題をテクノロジーで解決する事業を武器に、FinTechの次の潮流として注目を集める事業領域で成長を遂げております。
600~1200万
【ポジション概要】 本ポジションは、マクロミルの事業開発部門において、マーケティング・インテリジェンス領域のプロダクト/サービスを PoC 段階から事業スケールへ移行させるリードデータエンジニア(Tech Lead/TPM)です。 データサイエンティストが開発した分析モデルを安定稼働させるため、モデル実行環境の標準化、データパイプラインの設計・実装・自動化、運用プロセス(DevOps/MLOps)の最適化を一貫して担い、スケールアップ可能な運用基盤の構築を主導します。 MVP(実用最小機能の開発)フェーズでは自ら運用プロセスの再設計・実装を行い、データサイエンティストを支援し、スケールアップフェーズではシステム部門・外部ベンダー等、社内外のステークホルダーと連携して要件定義からプロジェクトを管理までを担い、事業開発の立場からプロダクト開発をリードしていただきます。 【業務内容】 ●分析モデルの開発/実行環境の整備:データサイエンティストのモデル開発環境やモデルの実行環境に伴う整備 ●データパイプラインの設計・運用:Athena/BigQuery、Databricks(Spark/Delta Lake/MLflow)等を用いた ETL/ELT処理設計、データ品質の検証 ●運用効率化に向けた小規模開発:簡易なアプリケーションやサーバー処理を要する開発、又はDatabricksやAlteryx等を用いた開発の実施、その他運用整備 ●MLOps/DevOpsの最適化:分析モデルの開発やモデル利用に伴う運用の自動化・効率化の検討 ●大規模システム開発の推進:機能・非機能要件の定義、アーキテクチャ検討、RFP作成、システム部門との連携・ベンダーコントロール ●クラウド基盤の管理:AWS/GCP/Databricks/Alteryx 等のリソース管理、稼働指標やコストのモニタリング、主管となるシステム部門との連携 ●生成AI活用に伴う業務効率化:AIアシスタント(Cline、Gemini、ChatGPT 等)の活用管理 その他、新規プロダクト開発に向けたR&D(生成AIの高度活用を含む)も担当いただきます。 【配属部署】 配属先の部門は、マーケティングデータ分析や新規プロダクトの企画・開発を行うインテリジェンスチームです。 部署全体では約30名のメンバー(プロジェクトマネージャー、マーケティングデータアナリスト、データサイエンティストなど)が所属しており、幅広いプロジェクトをチーム単位で推進しています。 入社後はテクニカルプロジェクトマネージャー(リードデータエンジニア)として、他部署とも積極的に連携を取りながら、テクニカルな側面から新規プロダクトの開発・企画プロジェクトをリードし、事業の拡大推進に携わっていただきます。 【仕事のやりがい】 ●マクロミルが保有する消費者の「購買履歴・行動ログ・意識データ」など希少性の高いデータを活用し、これまでにない新たなソリューション開発に従事することができる。 ●インターネットリサーチ国内実績No.1のマクロミルの強固な顧客基盤を活かし、総合広告代理店や大手企業を含む幅広いクライアントに提供するプロダクトの企画開発に取り組み、企画したサービスが新しい業界標準として広く普及し、業界全体に大きなインパクトを与える可能性がある。 ●新規事業やプロダクト企画プロセスにおいてテクニカルな側面(生成AIの活用も含む)からビジネスのスケールアップ経験を積むことができ、「エンジニアリング×データ活用をリードする人材」としての市場価値向上を目指せる。 【募集背景】 同社は、 ①豊富な顧客基盤・案件数:年間取引企業数:4,000社 ②多彩なデータコレクション ・国内パネル:3,600万人 ・海外パネル:1億人 ・データ種類:意識/行動/購買/生体など ③1200人超の国内営業&リサーチ人材 を有する『総合マーケティング支援企業』です。 インサイト産業(市場調査に、テクノロジー主導の調査、マーケティングコンサル等の周辺領域を加えたもの)は、直近2年の平均成長率が8%と高水準にあり、成長が継続していくことが予見されています。 このインサイト産業の拡大を取り込み継続的な成長を確かなものにするために、新たな新規ソリューション、新規プロダクト、新規事業に取り組んでいます。 そのひとつとして、オンラインリサーチ(ネットリサーチ)分野で国内を牽引してきた実績に加え、属性データや購買データ、Webアクセスログ、アプリログなどの豊富なデータを活用し、クライアント企業のより良い意思決定の支援や事業成長につながる新たなソリューション開発に注力しており、技術的な側面からプロジェクトをリードいただくリードデータエンジニアを募集します。
・エンジニアリング実務 5年以上 ・小規模プロジェクトのPM/TL経験(目安:2~5名) ・Dockerによるコンテナ化、及びバージョン管理ツール(Git/GitHub)を使用した実務経験 ・PythonやSQL等を用いた開発・運用経験 ・DBやデータ処理フローの設計・実装・運用のいずれかで、再現性・保守性・コストを意識した業務改善を主導した経験 ・AWSまたはGCPいずれかのクラウドの設計・運用の実務経験(例:S3/GCS、Athena/BigQuery、EC2/ECS/EKS または GKE) ・システム要件定義、設計などの一連プロセスを推進した経験 ※日本語が母国語でない場合は、日本語能力試験N1(ビジネスレベル以上) 【歓迎要件】 下記いずれかの経験または知識 ・ベンダーコントロールや外注管理の経験 ・C/C++やRを利用した開発経験、又はCUDAを利用した並列化処理の導入経験 ・DatabricksやSnowflake等の分析プラットフォームの利用経験 ・BI/ETL/ELTツールの活用経験 ・BigQuery/Athena を用いた大規模データ最適化の経験 ・MLOps/DevOpsの導入、又は開発/運用経験 ・Cline、Gemini、ChatGPT等を活用した開発経験 ・広告効果測定に関する知識(MMM、ブランドリフト、アトリビューション、因果推論等)
マクロミルは企業がマーケティング戦略の意思決定をおこなう際に発生する様々な課題に対し、”リサーチ”という⼿段を使って解決に導いていく企業のマーケティングパートナーです。 ◎マーケティングリサーチ事業 ┗インターネットリサーチ ┗FGI/DI、CLT、HUT等のオフラインリサーチ ┗調査企画、集計、分析 ◎グローバルリサーチ事業 ◎デジタルマーケティングリサーチ事業 ◎データベース事業 ┗購買データベース ┗ライフスタイルデータベース ◎セルフ型リサーチASP事業 他
600~1200万
■楽天フィンテックグループでは、銀行、クレジットカード、証券、保険、楽天ペイなど、さまざまなフィンテックサービスを提供しています。 各サービスにおけるデータサイエンティストを募集いたします。 【業務詳細】 楽天グループが保有する膨大なデータを活用して、独自のサービスやシステムを企画・開発する業務を担っていただきます。 ※変更範囲:当社業務全般
【必須】 ・データ分析の経験または機械学習モデルの構築・運用経験5年以上 ◎楽天グループでは、英語を公用語としていますが、本ポジションの実務は日本語で行います。入社時のTOEIC(R)は不問ですが、入社後2年以内にTOEIC(R)800点の取得が必須となります
■インターネット・FinTech(金融)など、多岐にわたる分野でのサービス提供 ※楽天会員を中心としたメンバーシップを軸にサービスと有機的に結びつける事で、独自の「楽天エコシステム(経済圏)」を形成しています。