Data Engineer(MiiTel Platform Div) / RevComm
600~1000万
株式会社RevComm
東京都千代田区
600~1000万
株式会社RevComm
東京都千代田区
データエンジニア
業務内容 各プロダクト・部門と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義や実装支援をお任せします。 あわせて、監査ログや権限管理の運用改善、ワークフロー自動化、新規データ連携構成のPoC・運用化、データマイグレーションの推進など、データ基盤全体の改善・拡張にも広く携わっていただきます。具体的には以下の業務です。 社内外データ連携基盤(主にBigQuery・S3・Salesforce・各種SaaS)の設計・開発・運用 データ統合/移行パイプライン(Google Cloud DataStream等)の設計および構築 Dataform、Redash等による定期バッチ、データ可視化・自動化ジョブの設計・保守 データ品質維持、テーブル最新化やコスト最適化施策の推進 各プロダクト・チーム(CS、開発、カスタマーサクセスほか)と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義と実装サポート データ基盤の監査ログ・権限管理の運用フロー改善、ワークフロー自動化 新規データ連携構成(RDBMS to BigQuery・S3 manual連携等)のPoCおよび運用化 データマイグレーションプロジェクト等の推進 やりがい 数千万〜数億レコード規模の大規模データの統合と活用というスケール感のある環境で、設計から運用まで一貫して携わることができます。特定領域に閉じず、広範な技術領域とビジネス領域の両方に関与できる点が大きな特徴です。 また、カスタマーサクセス・営業・開発などの各部門と密に連携しながら、技術選定やPoCにも主体的に関わることができるため、現場ニーズに即した実践的なデータ活用スキルが磨かれます。 加えて、自動化・効率化の余地が非常に大きく、裁量をもって業務改善に取り組めるのも魅力の一つです。新しい技術やツールの導入・検証も積極的に推奨される文化があり、技術志向の高い方には最適な環境です。 勤務形態はフルリモート・フルフレックスに対応しており、ライフスタイルに合わせた柔軟な働き方が可能です。 社内のあらゆる意思決定をデータで支える全社データ基盤の中核として、データを活かした事業成長に直結するインパクトの大きな役割を担っていただけます。 業務内容 各プロダクト・部門と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義や実装支援をお任せします。 あわせて、監査ログや権限管理の運用改善、ワークフロー自動化、新規データ連携構成のPoC・運用化、データマイグレーションの推進など、データ基盤全体の改善・拡張にも広く携わっていただきます。具体的には以下の業務です。 社内外データ連携基盤(主にBigQuery・S3・Salesforce・各種SaaS)の設計・開発・運用 データ統合/移行パイプライン(Google Cloud DataStream等)の設計および構築 Dataform、Redash等による定期バッチ、データ可視化・自動化ジョブの設計・保守 データ品質維持、テーブル最新化やコスト最適化施策の推進 各プロダクト・チーム(CS、開発、カスタマーサクセスほか)と連携し、業務要件に応じたデータ抽出・集計・可視化の要件定義と実装サポート データ基盤の監査ログ・権限管理の運用フロー改善、ワークフロー自動化 新規データ連携構成(RDBMS to BigQuery・S3 manual連携等)のPoCおよび運用化 データマイグレーションプロジェクト等の推進 やりがい 数千万〜数億レコード規模の大規模データの統合と活用というスケール感のある環境で、設計から運用まで一貫して携わることができます。特定領域に閉じず、広範な技術領域とビジネス領域の両方に関与できる点が大きな特徴です。 また、カスタマーサクセス・営業・開発などの各部門と密に連携しながら、技術選定やPoCにも主体的に関わることができるため、現場ニーズに即した実践的なデータ活用スキルが磨かれます。 加えて、自動化・効率化の余地が非常に大きく、裁量をもって業務改善に取り組めるのも魅力の一つです。新しい技術やツールの導入・検証も積極的に推奨される文化があり、技術志向の高い方には最適な環境です。 勤務形態はフルリモート・フルフレックスに対応しており、ライフスタイルに合わせた柔軟な働き方が可能です。 社内のあらゆる意思決定をデータで支える全社データ基盤の中核として、データを活かした事業成長に直結するインパクトの大きな役割を担っていただけます。
必須要件 SQL/データベース設計・運用経験(BigQuery、RDBMS等) ETL・データパイプラインの構築、運用経験(Dataform・Cloud Dataflow・Airflow等) クラウドサービスでの開発・運用経験(GCP等) 歓迎要件 Python等を利用したデータ処理・自動化スクリプトの実装実務 SalesforceなどSaaS連携バッチ設計・運用経験 コスト最適化/テーブル最新化等、大規模データ基盤運用における改善プロジェクト経験 業務部門と連携したデータ活用・要件定義・ダッシュボード設計 Jenkins、GitHub Actions等のCI/CD関連知識 情報セキュリティ要件・監査対応経験 ビジネスレベルの英語力
600万円〜1,000万円
東京都千代田区
最終更新日:
1400~1500万
・データおよびAI領域における企業向けソリューションのアーキテクチャ設計 ・金融業界(保険・銀行・資本市場など)を中心としたクライアントへのデータ戦略およびAI活用の提案 ・AWS、Azure、GCPなどのクラウド環境を活用したデータ基盤・分析基盤の設計 ・データエンジニアリング、データ分析、AIチームと連携したプロジェクト推進 ・クライアントとの技術ディスカッションおよびソリューション提案 ・グローバルチームと連携したデータトランスフォーメーションプロジェクトの推進
・IT、データ、またはデジタルトランスフォーメーション領域における実務経験 ・データアーキテクチャ、データ基盤、またはデータプラットフォーム設計の経験 ・クラウドプラットフォーム(AWS / Azure / GCP)の知識または実務経験 ・データ分析、AI/機械学習、またはデータエンジニアリングに関する理解 ・クライアント向けのソリューション提案またはコンサルティング経験 ・ビジネスレベルの日本語および英語
-
730~1400万
仕事内容: 【仕事の概要】 国内Vertical SaaS ARR No.1サービス「カイポケ」のリニューアルプロジェクトにおいて、介護事業者の経営改善や利用者支援に資するデータ活用に向けたデータプラットフォームの設計・開発・運用をリードしていただきます。 【具体的な仕事内容】 以下の領域を中心に、課題解決に向けて得意領域でご活躍いただきます。 ■データプラットフォーム(基盤) ・各種データ取り込み基盤の設計・運用 ・BigQuery・dbtを中心としたデータトランスフォーメーション/モデリング/マート設計 ・コスト最適化と継続的改善 ■データリライアビリティ(品質) ・データ品質の可観測性強化と異常検知 ・サービスレベルの設計と運用 ・インシデントのライフサイクル改善 ■データプロテクション(保護) ・要配慮個人情報を含む処理の安全運用 ・セキュリティ設計とプライバシー/ガバナンスの実装 ・安全な利活用を促すプロセス整備 ■データアクティベーション(活用) ・KPI設計と可視化基盤の構築・運用 ・プロダクト/事業部と連携した実験・検証とセルフサービス化 【キャリアパス】 アーキテクト、エンジニアリングマネージャーなど、個々の志向性に併せて多様なキャリアパスを描くことが可能です。 【ポジションのポイント】 東証プライム上場、21期連続増収の安定基盤のもと、国内No.1 SaaSの「第2転換期」という裁量あるフェーズに参画できます。 優秀なエンジニア陣とのコードレビューや技術選定の自由度が高く、圧倒的な成長環境が整っています。 リモートワーク中心、フレックスタイム制、充実した自己研鑽補助制度など、働きやすさとスキルアップを両立できる環境です。
応募要件 応募条件: ・Google Cloud AWS などのクラウド環境でのデータプラットフォームの構築、運用経験 ・データ分析またはデータ分析環境構築(ELT, BIなど)の実務経験(データプラットフォーム構築への意欲を重視します) 歓迎条件: ・Webアプリケーションのサーバサイド開発、運用経験(データ利用側のアプリケーションとの連携をスムーズに行える方を歓迎します) ・情報セキュリティに関連する業務の経験 ・データガバナンスの経験 ・アジャイル開発の経験 ・ソフトウェア開発リード経験
-
500~900万
・データ基盤の戦略立案や方針策定 ・データ基盤の構築・運用 ・データ利用部門との課題の定義、要件整理 ・データウェアハウスやデータマートの仕様策定や設計及び構築 ・各サービスのエンジニアと連携し、データソースをデータチームへ繋げる ・クラウドサービスを活用したシステムアーキテクチャの設計及びレビュー ・データの可視化やデータ活用の支援及びデータ設計や自動化 ・各プロジェクトで利用される BIツールの構築・運用 ・データ利活用の推進 ・データ計測の仕組みの構築・運用 ・マーケティングの効果測定で用いる計測環境を整える など IT系だとCTCやSCSK、Skyや帝人など、WEB系だとアクセンチュアやシャノンなど業界を牽引するトップ企業含め様々な企業と安定的な取引を行っております。 当社社員は、プロダクションカンパニーの一員として各社クライアントのプロジェクトに参画し、1つの会社に長年いては実現できない多彩なスキルやノウハウを身に付けることができます!
■データ分析業務の経験 ■SQLでの操作経験 ■Pythonによるデータ加工経験 ■Java、Ruby、Python、C#いずれかでの開発経験 ■Google Analytics、Adobe Experience CloudまたはBIツール(Tableau、Looker Studio、Microsoft PowerBI、その他ツール含む)いずれかのご経験 【歓迎要件】 ■Python を用いた WEB アプリケーション開発経験 ■データ基盤もしくはWEBサービスのプロダクト経験 ■TableauなどBIツールを用いた分析/可視化の業務経験 ■仮説検証に必要なデータの設計に数値からプロダクト改善提案までの経験
エクストリームの事業モデルは「デジタル人材事業」「受託開発事業」「コンテンツプロパティ事業」の3つの柱で成り立っています。コンテンツプロパティ事業やグループ企業をはじめとした自社プロダクト開発のほか、クライアントのプロジェクトを担当するので、スキルを固定化せず、常に新しいスキルを身につけることができます。変化の激しい時代に通用する、本物のデジタルクリエイター・エンジニアになれる。この自信がエクストリームで得られる大きなメリットです。
1000~1300万
【職務内容】 一人目のデータエンジニアを募集します。収集データの仕様決定、パイプラインの設計・構築、全社のデータ活用ニーズに基づいたデータモデリング、BIツール設計・構築、基盤の運用保守など、データエンジニアリング領域を一気通貫で支えていただきたいです。 【具体的には】 ・ 業務内容収集データの仕様決定、パイプラインの設計・構築、 全社のデータ活用ニーズに基づいたデータモデリング、BIツール設計・構築、基盤の運用保守など、 データエンジニアリング領域を一気通貫で支える。 ・ 具体的な業務内容 ・ データ活用ニーズの明確化と、収集データの仕様決定 ・ データモデリングETL処理などパイプラインの設計・構築 ・ リアルタイム性、正確性、セキュリティ、ガバナンスなどの非機能要件定義と設計・実装 ・ BIツールの設定・構築や、分析業務の一部監視やモニタニング等含めた運用基盤の構築と実運用 【魅力】 累計500万DLを突破し、売上総利益207倍を記録する急成長EC「カウシェ」の、一人目のデータエンジニアです。各職種が自らデータ分析を行う文化の中、高度化する非機能要件に応える基盤構築を専任で主導します。ビジネスの意思決定に直結する基盤をゼロから設計する経験は、希少な市場価値とスキル向上に繋がります。 【開発環境】 BigQuery、 Dataform、 Spanner Cloud Monitoring、 Cloud Logging Terraform、 GitHub Actions Looker Studio、 Google Spread Sheets GitHub、 Slack、 Notion(求人ID:414821)
【必須】 ・ データ基盤の設計・構築・保守・運用の経験 ・ データモデリング経験、高度なSQL構築能力 ・ データ基盤の非機能要件を定義し、設計・実装できる能力 ・ Dataform、 dbt、BigQueryなどの利用経験 ・ Github、 Terrafrom、 CI/CD ・ プログラミング言語を用いたソフトウェア開発経験 【歓迎】 ・ ML基盤の構築・運用経験 ・ アナリストとしての高度なデータ分析経験 ・ バックエンドエンジニアとしてのソフトウェア開発経験 ・ テックリード経験やエンジニアリングマネジメントの経験
【シェア買いアプリ「KAUCHE(カウシェ)」を運営】 カウシェは、お友だちやご家族などの「シェア買い仲間」とのグループ購入で楽しくお得にショッピングできるシェア買いアプリです。 ショッピングセンターやデパ地下などでするショッピングのように、わいわいコミュニケーションを取りながら楽しくお得にオンラインで買い物をする体験を提供しています。
700~900万
当社のAI推進PM/PdMとして、AI技術の調査・選定から、選定した技術をプロダクトに実装するための計画策定までを担当していただきます。さらに、開発チームと密に連携し、実装を推進しながら、AI技術の最新動向を把握し、社内へ共有する重要な役割を担います。 具体的な業務内容は以下の通りです: - AI技術の調査・選定 - 選定した技術のプロダクトへの実装計画策定 - 開発チームとの連携による実装推進 - AI技術の最新動向の把握と社内共有 配属先は、最先端技術のR&Dを行っている「先端技術研究室」で、2025年に新設された部署です。IT業界の最先端技術である「AI・自動化」を軸に、新たなサービ
【必須要件】 AI技術の選定および実装に関する実務経験(3年程度をメド) 機械学習、深層学習に関する知識 Transformer,GPT,BERT等の理解 Python、Rなどのプログラミング言語の使用経験 AIプロジェクトのマネジメント経験 【歓迎要件】 クラウドサービス(AWS、GCP、Azure)の利用経験 ビジネス課題の解決に向けたAIソリューションの提案経験 関連分野での学位(修士、博士) 【求める人物像】 以下のような姿勢を持ち、自ら行動できる方を歓迎します。 こんな方が活躍できます! - 技術トレンドに敏感で、自己研鑽を続けられる方 - チームでの協働を重視し、コミュニケ
■デバッグ・ネットサポート・ソフトウェア品質検証事業 企画立案から、リリースされてからの運営・改善までの「サービス・ライフサイクル」の課題解決サポートを行います。 ◆主な事業 品質コンサルティング、環境構築・移行サポート、ゲームデバッグ、ソフトウェア第三者検証、モニタリング、カスタマーサポート、不正対策、BPRサポート
514~949万
<職務概要> KDDIおよびグループ会社が提供する au・UQなどのモバイルサービス、さらに アプリや金融サービスなど幅広い領域におけるマーケティング活動を、データ分析を通じて高度化させるポジションです。 市場や顧客の動向を読み解き、マーケティング課題に対する仮説を立て、データ抽出・集計・分析を行い、結果をレポートとして提案します。 データを活用し、より効果的な施策を生み出すことで、事業成長に直接貢献できるやりがいのある仕事です。 <職務内容> 〇各種事業領域におけるデータ分析業務 1. 課題把握・仮説立案 各種事業におけるマーケティング課題に対して、背景を整理し、課題解決に向けた仮説を立案 2. データ収集・準備 課題解決に必要なデータをシステムから抽出し、分析に適した形に整備 3. 分析実施 目的に応じた手法を選択分析を選択し、分析結果を可視化 4. レポート・提案 分析結果をレポートとしてまとめ、関係部署へ報告し、データに基づく改善提案や施策立案をサポート 〇その他付帯業務 ・実績動向の可視化(帳票、ダッシュボード) ・各種施策の検討から効果検証 ・過去実績を基にした予測/シミュレーション ・機械学習モデルを用いた各種スコアの構築/利活用 ・生成AIによる業務効率化推進 <魅力・アピールポイント> KDDIが掲げる 「サテライトグロース戦略」では、通信事業を基盤に、周辺の成長領域を拡大することが重要なテーマです。 通信領域は市場環境の変化が激しく、データを起点にお客さまの動向をタイムリーに捉え、市場を先読みする力が求められています。 さらに、成長領域の中でも特に注目されているのが”金融サービス領域”です。 QRコード決済やクレジットカード事業など、競合各社がしのぎを削る中、金融領域におけるデータドリブン推進の重要性はますます高まっています。 このポジションでは、各事業領域で、データ分析を通じて経営判断やマーケティング活動に直接関与できるため、事業成長に大きなインパクトを与えるやりがいがあります。 さらに、分析業務にとどまらず、機械学習モデルの構築や予測分析、スコアリングなど高度なデータサイエンス領域にも挑戦可能です。 将来的には、生成AIや高度なアルゴリズムを活用した意思決定支援にも関わることができ、データサイエンティストとしてのスキルアップを目指せる環境です。 <組織ミッション> 私たちは、各事業領域におけるデータ分析を通して、データドリブンマーケティングを実現することです。 市場動向を先読みし、お客さまを理解することでカスタマーサクセスに貢献し続けることを目指しています。 <募集背景> KDDIが掲げる 「サテライトグロース戦略」により、通信事業の基盤だけでなく、周辺の成長領域(金融サービス、アプリなど)が急速に拡大しています。 これに伴い、データ分析の対象となるサービスが増加し、モバイルと各サービスを横断したクロス分析の重要性も高まっています。 こうした環境変化の中で、データを起点にお客さま視点で仮説を立て、事業課題を解決できる分析官が不可欠です。 そのため、高度なデータ分析スキルを持ち、マーケティングや経営判断に貢献できる人材を募集します。 <参考情報> ・KDDIの経営を進化させるデータサイエンティスト データ分析から新たな施策が生まれる醍醐味 https://career.kddi.com/andkddi/category/recruitment/25053004.html ・膨大なデータを武器に、変革に挑むKDDIの戦略とは https://career.kddi.com/andkddi/category/recruitment/24013103.html
<必須の経験・スキル> ・何らかの技術を用いたデータ分析経験(3年以上) ・業務課題を理解し、分析設計/業務改善を行った経験 <あると好ましい経験・スキル> ・統計学/データ分析に関する基礎知識 ・機械学習モデルの構築/運用経験(回帰、分類、クラスタリングなど) ・クラウド環境でのデータ分析経験(AWS、GCP、Azure) ・Pythonライブラリ(pandas、scikit-learn、TensorFlowなど)の高度な利用経験 ・生成AIや自然言語処理の知識・実装経験 ・KPI設計やマーケティング領域での分析経験 ・プロジェクトマネジメント経験 ・財務・経理知識保有 <求める人物像> ・プロアクティブに業務を遂行できる方 ・事業やお客さま理解に興味がある方 ・数字/数学が好きな方 ・先進技術を自ら学び、実践できる方 ・人とのコミュニケーションが好きな方
通信を軸として、金融、エネルギー、エンタメ、教育などお客さまのライフステージに合わせた ライフデザインサービスを総合的に提供するべく「通信とライフデザインの融合」を推進しています。 また、国内はもとよりグローバルにおいても、5G/IoT時代における新たな価値創造を実現し、 お客さまの期待を超える新たな体験価値の提供を追求しています。
900~1200万
【募集背景・ミッション】 DeNAのヒューマンリソース本部は「人の力を最大化し事業と経営に資する」ことをミッションとしています。 人事はアートとサイエンスの掛け算です。人間は感情の生き物であり、組織はその人間があつまったものです。人事のプロフェッショナルが培ってきた「経験と勘」といったアートに、データやAIを活かしたサイエンスの力を組み合わせることで、組織の隅々の一人ひとりまで質の高い解決策が行き渡る世界を目指しています。 本ポジションは、多様な独自の内製HRデータを「資産」に変え、データ活用やAI技術の土台を整えることで「データ×AI」で人と組織の力を引き出し、HRデータ戦略の要となる重要な
■必須スキル 以下のいずれかの実務経験を満たす ・SQLもしくはR言語 を用いたデータ抽出・加工・分析の実務経験(3年以上) ・DWH(BigQuery等)上でのデータマネジメント経験、またはデータモデリングの知識 ■歓迎スキル ・AI/LLM を活用したデータ整備や、ピープルアナリティクスへの関心 ・Google Cloud または AWS の利用経験 ・Python, Go 等を用いたデータパイプラインの実装経験 ・データマネジメント知識体系の理解 ・データの品質、定義、利用ルールの策定や運用経験 ・人事制度、労務規定、採用業務などのドメイン特有の深い知見 ■求める人物像 ・受け
■ゲーム ■エンターテインメント ■Eコマース ■オートモーティブ ■ヘルスケア ■スポーツ ■その他 同社は、「モバイルインターネット総合企業」として、多彩なサービスを展開しています。ソーシャルゲームプラットフォーム「Mobage」だけではなく、無料通話アプリ「comm」、音楽配信サービス「Groovy」などの新規事業や、「同社ショッピング」を中心としたEC関連のサービスを展開しています。 ◆同社で働く魅力:事業展開「インターネットの領域で、新しい事業を次々と生み出す」
800~1100万
【職務内容】当社が運営するサービス『toridori marketing』『toridori base』、新規サービスにおける、AI/ML機能の開発・改善、データ基盤の構築・運用をお任せします。 インフルエンサーがより質の高い・関連性の高いキャンペーンに出会えるよう、キャンペーンレコメンドや検索、プッシュ通知など、インフルエンサーマーケティングの主要機能に対しLLM/MLや最適化技術を活用した仕組み作りをリードしていただきます。 単なるアルゴリズム実装だけでなく、課題の発見からデータ分析、検証、システム実装、改善サイクルまで一貫して携わり、事業成長に直結する成果創出を目指します。 候補生成・ランキング・後処理などの各フェーズごとに、効果的なアルゴリズムやシステムの設計・最適化を行います。 また、最新の機械学習・AI技術を積極的に取り入れ、サービスの品質やユーザー体験、システム性能・スケーラビリティの向上につなげる取り組みも推進していただきます。プロダクト・エンジニアリング・ビジネス・コンテンツ運用など社内多部署と連携しながら、部門横断型のプロジェクトにも主体的に携わっていただきます。 【具体的には】 ・LLM/MLや最適化技術を活用したキャンペーンレコメンド、検索、プッシュ通知機能の設計・開発 ・候補生成/ランキング/後処理など各フェーズにおけるアルゴリズムの設計・実装・最適化 ・プロダクトマネージャーや他部門と連携した課題発見、データ分析、検証、システム実装、改善サイクルの一貫した推進 ・最新の機械学習/AI技術の調査・導入によるサービス品質、UX、システム性能の向上 ・エンジニアブログやカンファレンス等を通じた業務内容のアウトプット 【開発環境】 バックエンド:Node.js / Ruby / Go フロントエンド:TypeScript / React インフラ:AWS その他:DataDog / Linear / GitHub(求人ID:407767)
【必須】・データ構造およびアルゴリズムに関する深い理解と、高いコーディングスキル ・TensorFlow、PyTorch、Flink、Trino 等のプラットフォーム/ツールの利用経験 ・Airflow/Prefect/Snowflake/BigQuery/Athena 等のデータ処理基盤における選定・実装経験(事業フェーズや課題に応じた最適な技術選択ができること) ・いずれかの領域における関連実務経験:レコメンデーションシステム開発 広告システム開発 検索システム開発 機械学習全般 ・大規模データマイニング、機械学習、強化学習、分散処理、情報検索、最適化、コンピュータビジョン(CV)、自然言語処理(NLP)、マルチモーダル領域に関連するアルゴリズム開発の実務経験・論理的思考力、問題解決力、責任感、情熱、学習意欲、批判的思考力を備え、課題に主体的かつ積極的に取り組める方 ・技術的リーダーシップを発揮し、新たな技術領域の調査・企画・推進ができる方 ・他部門との協働やチーム開発を円滑に進められるコミュニケーションスキル ・複雑な実装や新技術・新言語に対する高い適応力 ・組織内外における対面/ドキュメントベースでの円滑なコミュニケーション能力 ・リモートワーク環境下での自己管理能力および高い責任感 ・toridoriのミッション・バリューへの共感
同社は、SNSマーケティング支援事業、インフルエンサーの支援事業を運営する企業です。 具体的には、4つのサービスを提供しています。
600~1200万
当社ではクライアントのマーケティング課題を解決するプロダクトを複数開発しております。 LTVマーケティングを推進していくためにもデータ活用の推進は欠かせません。当社のデータマネジメント組織は「データが事業の競争力の源泉となる文化・環境の構築」をビジョンに「データを社内外に効果的に流通させ、事業成長を支援する」ことをミッションに日々取り組んでいます。グループ会社を通してデータ基盤を整備し、データ活用を推進するためにも、新たにメンバーを募集いたします。 データ基盤の構築・改善と社内におけるデータ活用支援を推進していただきます。Modern Data Stackの技術をベースにELT、DWH、Analyticsをはじめとしたあらゆるカテゴリの技術選定、データ基盤の設計、データ基盤を利用してもらうためのイネーブルメントといった業務を担当いただきます。 【具体的な業務】 機械学習エンジニアやマーケティング担当者が利用しやすいデータ収集及び分析基盤の設計および構築 dbtをはじめとしたELT/ETLツールによるデータ配布のワークフロー設計および構築 データ収集、コンプライアンス、セキュリティを考慮したデータガバナンスの取り組み Moden Data Stack領域の技術調査、検証、導入 【主な技術スタック】 データ基盤: dbt, Airbyte, Dagster, Hightouch, Looker Studio, Secoda クラウドインフラ: Google Cloud (GKE, Cloud Run, Cloud Functions) IaC: Terraform, Helm CI/CD: GitHub Actions, skaffold (Cloud Build, Cloud Deploy) コミュニケーション: Slack, Notion, Google Meet <仕事を通して得られること> マルチプロダクトにおけるデータ基盤の設計・構築経験 データエンジニアリング領域のモダンな技術を利用した開発経験 経験豊富なCTOを含めた成長意欲の高いチームメンバーとの協業経験 事業・プロダクトをグロースさせる経験 アジャイルな開発プロセス、モダンな技術環境下での開発経験
【必須スキル】 ワークフローエンジンを用いたETL処理の開発経験 実務での SQL の利用経験 実務での何かしらのプログラミング言語によるシステム・ツールの開発経験 AWS、GCPいずれかのマネージドサービスを用いたシステム構築、運用経験 データ基盤構築やデータ活用に対して課題意識を持っていたり、興味・関心を持っていること 【歓迎スキル】 Google Cloudのサービス(Cloud Composer, BigQuery) を用いたデータパイプラインの開発・運用経験 Kubernetesをはじめとしたコンテナ関連の環境下でのアプリケーション開発・運用の経験 ディメンションモデリング / セマンティックレイヤーの実装経験 データガバナンスを考慮しながらデータ基盤を構築した経験 LookerなどのBIツールを用いた分析環境の構築・運用経験 バックエンドエンジニアとしての業務経験 【求める人物像】 ⾃ら課題を発⾒し、解決策を考え動きたいと思っている⽅ スタートアップのスピード感や変化を楽しめる⽅ 新しい技術/サービスやエンジニアリングが好きで、意欲的にキャッチアップしていきたい⽅ 組織・個人両面から既存の技術スタックにとらわれずアウトカム重視でアンラーニングしていける方 モダンな社内システムを構築していきたいと考えている⽅
LTVマーケティング事業
770~1540万
SmartHRは「well-working 労働にまつわる社会課題をなくし、誰もがその人らしく働ける社会を作る。」をミッションに、クラウド人事労務ソフト「SmartHR」を開発・提供しています。今後の方針に『マルチプロダクト戦略』を掲げ、労務管理領域・タレントマネジメント領域を中心にプロダクトを拡大・成長させ続けます。 昨今、大規模言語モデル(LLM)をはじめとするAI技術の進展は目まぐるしいものがあり、労務や人事の業務も無関係ではありません。SmartHRではAI専任組織「AI開発部」を設置し、プロダクトへのAI導入を加速させています。 この度AI機能開発における基盤構築を担当するMLOpsエンジニアを募集します。SmartHRのAI機能のイテレーションを回すためのMLOps基盤の構築を担当いただきます。AIを主軸とした新規プロダクトの立ち上げに関わることもあります。 業務用SaaSでは日本屈指のユーザーボリュームを誇るSmartHRで、AIによる社会課題解決を経験してみませんか? 【応募資格(必須)】 - SmartHRのミッションとバリューに共感できる人 - GCP / AWS / Azure などいずれかによるクラウドを利用したインフラの運用・構築経験 - IaCを用いたインフラ構築の経験 - フレームワークを使用したウェブアプリケーション開発の実務経験(フレームワークの種類は問いません) - 単体テストを用いた継続的な開発の経験 - RDBを用いた開発の経験 【応募資格(歓迎)】 - 機械学習モデルやLLMサービスを継続的に改善、運用した経験 - 機械学習パイプラインを開発した経験 - データアナリストとしての業務経験 - GitHubを用いた複数人での開発経験 - アジャイルな開発の経験 - OSSの公開やコントリビュート経験 【求める人物像】 - つねにプロダクトとその先にいるユーザーを軸に考えられる方 - チームでなにかを成し遂げたい方 - 心理的安全性を意識した振る舞いができる方 - 情報の透明性を保ち続けられる方 - 変化に向き合い、経験から学んで前に進める方 - 社会的課題を技術で解決したい方 【勤務地】 フルリモート(ただし国内在住)もOK
【必須スキル】 - SmartHRのミッションとバリューに共感できる人 - GCP / AWS / Azure などいずれかによるクラウドを利用したインフラの運用・構築経験 - IaCを用いたインフラ構築の経験 - フレームワークを使用したウェブアプリケーション開発の実務経験(フレームワークの種類は問いません) - 単体テストを用いた継続的な開発の経験 - RDBを用いた開発の経験 【歓迎要件】 - 機械学習モデルやLLMサービスを継続的に改善、運用した経験 - 機械学習パイプラインを開発した経験 - データアナリストとしての業務経験 - GitHubを用いた複数人での開発経験 - アジャイルな開発の経験 - OSSの公開やコントリビュート経験 【求める人物像】 - つねにプロダクトとその先にいるユーザーを軸に考えられる方 - チームでなにかを成し遂げたい方 - 心理的安全性を意識した振る舞いができる方 - 情報の透明性を保ち続けられる方 - 変化に向き合い、経験から学んで前に進める方 - 社会的課題を技術で解決したい方
-