【フルリモート】データアナリスト / データエンジニア 地方創生 × AI活用推進×分析〜ETL開発
500~800万
株式会社 Village AI
東京都渋谷区
500~800万
株式会社 Village AI
東京都渋谷区
データアナリスト
データエンジニア
事業会社のAI・データ活用を推進するため、以下の業務を担当いただきます。 ▼ データ分析およびデータ基盤開発 ・SQLによるデータ抽出・加工 ・Pythonによる分析ロジック・ETL開発 ・BIツール(Power BI / Looker / Tableau等)設計・開発 ・既存データ基盤改善・データマート開発 ▼ AI・データ活用プロジェクト推進サポート ・顧客ヒアリング/課題整理 ・要件整理・仕様設計サポート ・分析計画作成、効果検証 ▼ 生成AIを用いた業務改善・PoC・開発実施 ・OpenAI API等利用 ・プロトタイプ開発 ・業務フロー改善設計 ▼ クライアントと折衝・コミュニケーション ・定例ミーティングで進捗共有 ・技術的課題へ提案 ・プロジェクト運用改善提案 ▼ プロジェクト内でチーム推進・リード業務 ・メンバーと連携およびタスク調整 ・技術的観点で方針検討・レビュー ・成果物品質管理 ・プロジェクト推進上課題発見と解消 【仕事の魅力】 ▼ AI・データ領域10年以上メンバー(里・戸嶋・井上など)と、密度高い環境で働ける 実戦経験が豊富なメンバーから直接レビューを受けながら、技術力と事業理解両方を高いレベルで鍛えられる環境です。 ▼ 事業会社の中で「成果が出る構造」をつくる希少な経験 ・多くのAI支援がPoCで終わるなか、弊社は「事業成果につながるAI・データ活用」を実現する伴走型の支援に取り組んでいます。 ・単なるモデル開発ではなく、事業に効く活用の設計・実装・定着まで一貫して関われます。 ▼ AI・データを活用した地方創生・地域活性化プロジェクトに関わる機会もあります ・弊社は「地方創生」事業を持ち、地域の課題解決にAI・データ活用で挑むプロジェクトも推進しています。 ・すべてのメンバーが必ず携わるものではありませんが、スキルや志向に応じて、地方創生領域のプロジェクトに関わる機会もあります。 ・社会的意義のあるテーマで実戦的なデータ活用に取り組める点は、弊社ならではの魅力です。 ▼ リモート中心で、成果基準の働き方 ・働き方が柔軟で、自主性と主体性が尊重されます。成果にコミットできれ䜀、時間や場所に縛られない自由度の高い働き方が可能です。 ・月1回の全社定例で、対面でのコミュニケーションや勉強会を通じた学習機会も確保しています。
・SQLおよびPythonを用いたデータハンドリング全般の実務経験(目安:3年以上) ・業務や目的を理解し、データ設計・処理方法を自ら考えて実装・改善まで担った経験
大学院(博士)、大学院(修士)、大学院(MBA/MOT)、大学院(法科)、大学院(その他専門職)、4年制大学
正社員
無
有 試用期間月数: 6ヶ月
500万円〜800万円
ご家庭の都合による勤務時間の調整が可能で、仕事と育児を両立している社員もいます。
有 コアタイム (10:00〜15:00)
内訳:土曜 日曜 祝日
・年末年始休暇 ・GW休暇 ・夏季休暇 ・慶弔休暇 ・有給休暇(法定通り)
健康保険 厚生年金 雇用保険 労災保険
無
東京都渋谷区
在宅勤務 リモートワーク可 資格取得支援制度 研修支援制度
種子島本社:鹿児島県熊毛郡中種子町野間5185-1 東京支社 :東京都渋谷区恵比寿南1-20-6 第21荒井ビル4F ※本求人䛾所属䛿「東京支社」䛻䛺ります。
【事業内容】 ・地方創生事業 ・AI・データ活用支援事業 【AI・データ活用支援事業䛻䛴い䛶】 Village AI䛿、「AI・データ活用䛾事業化を目指す企業」から、「す䛷䛻データ活用を推進し䛶いる企業」ま䛷、幅広いお客 様䛾伴走支援を行䛳䛶います。 戦略設計から実務支援ま䛷一貫し䛶関わり、「成果が出るAI・データ活用が社内䛻根付く状態」を䛴くるこ䛸を目的䛸し䛶 います。 PoC䛰け䛷終わる支援䛷䛿䛺く、企業䛾成長䛻直結するAI活用䛻コミットし䛶いる点が特徴䛷す。
最終更新日:
1400~1500万
・データおよびAI領域における企業向けソリューションのアーキテクチャ設計 ・金融業界(保険・銀行・資本市場など)を中心としたクライアントへのデータ戦略およびAI活用の提案 ・AWS、Azure、GCPなどのクラウド環境を活用したデータ基盤・分析基盤の設計 ・データエンジニアリング、データ分析、AIチームと連携したプロジェクト推進 ・クライアントとの技術ディスカッションおよびソリューション提案 ・グローバルチームと連携したデータトランスフォーメーションプロジェクトの推進
・IT、データ、またはデジタルトランスフォーメーション領域における実務経験 ・データアーキテクチャ、データ基盤、またはデータプラットフォーム設計の経験 ・クラウドプラットフォーム(AWS / Azure / GCP)の知識または実務経験 ・データ分析、AI/機械学習、またはデータエンジニアリングに関する理解 ・クライアント向けのソリューション提案またはコンサルティング経験 ・ビジネスレベルの日本語および英語
-
730~1400万
仕事内容: 【仕事の概要】 国内Vertical SaaS ARR No.1サービス「カイポケ」のリニューアルプロジェクトにおいて、介護事業者の経営改善や利用者支援に資するデータ活用に向けたデータプラットフォームの設計・開発・運用をリードしていただきます。 【具体的な仕事内容】 以下の領域を中心に、課題解決に向けて得意領域でご活躍いただきます。 ■データプラットフォーム(基盤) ・各種データ取り込み基盤の設計・運用 ・BigQuery・dbtを中心としたデータトランスフォーメーション/モデリング/マート設計 ・コスト最適化と継続的改善 ■データリライアビリティ(品質) ・データ品質の可観測性強化と異常検知 ・サービスレベルの設計と運用 ・インシデントのライフサイクル改善 ■データプロテクション(保護) ・要配慮個人情報を含む処理の安全運用 ・セキュリティ設計とプライバシー/ガバナンスの実装 ・安全な利活用を促すプロセス整備 ■データアクティベーション(活用) ・KPI設計と可視化基盤の構築・運用 ・プロダクト/事業部と連携した実験・検証とセルフサービス化 【キャリアパス】 アーキテクト、エンジニアリングマネージャーなど、個々の志向性に併せて多様なキャリアパスを描くことが可能です。 【ポジションのポイント】 東証プライム上場、21期連続増収の安定基盤のもと、国内No.1 SaaSの「第2転換期」という裁量あるフェーズに参画できます。 優秀なエンジニア陣とのコードレビューや技術選定の自由度が高く、圧倒的な成長環境が整っています。 リモートワーク中心、フレックスタイム制、充実した自己研鑽補助制度など、働きやすさとスキルアップを両立できる環境です。
応募要件 応募条件: ・Google Cloud AWS などのクラウド環境でのデータプラットフォームの構築、運用経験 ・データ分析またはデータ分析環境構築(ELT, BIなど)の実務経験(データプラットフォーム構築への意欲を重視します) 歓迎条件: ・Webアプリケーションのサーバサイド開発、運用経験(データ利用側のアプリケーションとの連携をスムーズに行える方を歓迎します) ・情報セキュリティに関連する業務の経験 ・データガバナンスの経験 ・アジャイル開発の経験 ・ソフトウェア開発リード経験
-
1000~2000万
【職務内容】 クラウドインフラ上で生成AIモデルを組み込んだアプリケーションレイヤーの開発を担当します プロンプトエンジニアリングやRAG、エージェント開発など生成AI技術を用いた幅広い開発を、 クラウドネイティブな開発手法を用いながら、バックエンドシステムの設計・開発・運用、APIの開発や 外部システムとの連携、フロントエンドも含めた開発を行います ■勤務地変更の可能性:有 ■変更の範囲会社の定める場所(テレワークを行う場所を含む)※転勤の可能性あり ■転勤の有無・ご本人の希望を考慮いたします ※入社後、転勤可否に関して定期的にアンケートを取らせていただいており、 そこで「転勤不可」と回答される方には転勤を強制することはしておりません(求人ID:416872)
【必須】 ・クラウドプラットフォーム上でのバックエンド開発経験3年以上 ・Python、Go、Java、JavaScriptいずれかの言語経験3年以上 ・RDB、NoSQLの設計・開発経験3年以上
ソフトウェアを通じて情報社会の実現を支援し、革新的なICTソリューションを提供します。
1000~1500万
【職務内容】 スタートアップの開発支援から大手企業の新規サービス立ち上げまで様々な規模のプロジェクトがあり、その中でもパブリッククラウド環境でのデータウェアハウス構築を担うデータエンジニアとして業務を担っていただきます。 【具体的には】 ・パブリッククラウド(AWS、GCP、Azure など)上でのデータ基盤・データパイプラインの設計、構築、運用 ・データ収集、加工、ストレージに関わるシステムの開発 ・大規模データを対象としたETL (ELT) 処理の最適化 ・リアルタイムデータの処理 ・データクレンジング処理やデータマートの構築 ・データの可視化および分析基盤の構築支援 ・データパイプラインの品質管理、パフォーマンスの向上 ・データウェアハウスの運用保守 ・ステークホルダー(データアナリスト、データサイエンティストなど)との連携 ・顧客との要件定義や設計フェーズでのコミュニケーション(求人ID:359201)
【必須】 ・ パブリッククラウド(AWS、GCP、Azure)を利用したデータ基盤の構築経験 (AmazonRedshift、GoogleBigQuery、AzureSynapseAnalyticsなど) ・ ETLプロセスの設計・開発経験(dbt、dagster、Airflow、Glue、Dataform、DataFactory、Kafka、AmazonKinesisなど) ・ Python、Java、またはScalaを用いたデータ処理の実務経験 ・ SQLの高度なスキル ・ CI/CDツールを用いたパイプラインの自動化経験 【歓迎】 ・ TerraformやCloudFormationを利用したIaC(InfrastructureasCode)の経験 ・ BigQuery、Redshift、Snowflakeなどのクラウドデータウェアハウスの知識 ・ ApacheAirflow、Kafka、Sparkなどのデータ処理ツールの利用経験 ・ クエリ最適化やインデックス設計などデータベースのチューニング経験
「誰もが価値創造に夢中になれる世界」をビジョンに掲げ、現在4ヶ国、6都市にて1500名以上のクリエイターやエンジニアが在籍するデジタル・クリエイティブスタジオです。 大手企業、ベンチャーの新規事業の立ち上げと開発の支援、スタートアップスタジオ、プロフェッショナルなICT人材の育成と紹介を通して、産業のデジタルトランスフォーメーション(DX)推進を主な事業としています。
400~800万
・クライアントの課題ヒアリング&抽出データの設計 ・データ抽出/加工/集計 ・データ分析/結果考察/改善方針提案 まずはデータ分析領域を見越した、データ処理を担当して頂きます。 将来的には分析の要件定義からクライアントへの企画提案までお任せします。 ▼各部門 / 仕事内容 ▶データ利活用部(一都三県勤務) 分析屋の「入り口」として、幅広い案件に対応する部門。 SQLやExcelスキルからチャレンジでき、IT未経験からでもキャリアを築けるのが特徴です。 キャリア魅力:基礎から実務を経験し、分析領域へのステップアップが可能。 ▶AIビジネス部(一都三県勤務) 最先端のAI技術を駆使し、ビジネス課題を解決に導く部門。 SQL+Pythonを武器に、機械学習やAIモデルを活用した提案・実装を行い、顧客の成果創出を直接支援します。 キャリア魅力:高度な分析スキルとビジネス視点を兼ね備えた“次世代リーダー人材”へ成長できる環境。 ▶ACR部(一都三県勤務) データアナリストに特化し、SQLを用いて幅広い分析・レポーティング・改善提案を行う部門。 現場のデータを深掘りし、ビジネス課題を数値から解決に導きます。 キャリア魅力:データから価値を生み出し、企業変革を支える分析のプロへ成長可能。 ▶基盤運用構築部(一都三県勤務) データ基盤の設計・構築・運用を担い、大規模なデータ活用を支える部門。 SQLやクラウド経験を活かし、安定した分析環境を整備します。 キャリア魅力:インフラの専門性とデータ活用の最前線を掛け合わせたスキルが身につく。 ▶BI推進部(一都三県勤務) BIツールを用いたデータ可視化やダッシュボード構築を専門とする部門。 SQLに加えてTableauやPowerBIなどの経験が活かせ、企業のデータ活用を加速させます。 キャリア魅力:“見える化”を通じて経営・現場にインパクトを与える実感を得られる。 ▶SAC部(藤沢本社勤務) 上流工程・コンサルティングに特化した部門。 SQL+Pythonに加え、課題抽出・顧客折衝力を活かし、意思決定を支える提案型の仕事を担います。 キャリア魅力:単なる分析者ではなく「顧客課題を解決するパートナー」として活躍。
・プログラミング言語を用いたシステム開発実務経験1年程度 ・SQLを使用したデータ処理業務経験 ・業務でのデータの分析/活用経験 ・データ分析に関する言語やツールの使用経験(SAS、Python、R、Tableau、SPSSなど)
データ分析支援を主軸とし、IT全般にサービス領域を拡げております。 プライム市場上場の株式会社SHIFTグループとして、近年は売上150%成長を目指し高い売上高を継続しています。
700万~
電力取引に使用する各種予測モデル等の改善と構築業務下記の業務内容に代表される電力取引に必要な予測ロジック・最適化処理の開発や改善、それらのロジックを用いた電力取引業務に取り組んでいただきます。業務状況や本人の適性も踏まえ、検討させていただきます。 〇 予測業務の高度化 電力取引においては需要予測をはじめとした予測精度の改善が取引収支に大きな影響を与えます。電力トレーディングGでは主にPythonで開発された予測ロジック群を用いることで日々の収支改善に取り組んでいます。また太陽光や風力を始めとした再生可能エネルギーの拡大を受けて、これらの発電量予測の高度化にも取り組んでいます。予測においては、統計・数理や機械学習関連の知識を活用して、日々改善に取り組んで頂きます。また、これらの予測の利活用を実現する、データ収集、データ基盤の整備、各プログラムの安定稼働のためのパイプライン構築も行っています。 〇 発電所の最適運用モデルの構築 電力の価格予測を行い、様々な電源の最適な稼働パターンを導き出すロジックの構築を行います。新規の発電所、複数の電力市場、市場変動リスクがある中で、最適な稼働パターンを導き出すモデルの構築を行います。 〇電力取引 実際の電力取引業務も当番制で担当いただき、電力市場制度・取引の知見の獲得を通じて最適化システム・予測モデルにフィードバックしていくことで収支改善を目指して頂きます。電力取引に必要な知識はオンボーディングを通じて身に付けて頂きます。全体の業務割合の約5-10%程度の作業です。
• Pythonを用いたデータ分析経験 • 機械学習モデルの構築・運用の実務経験 • DB・SQLの使用経験 <WANT要件> • 構築したモデルに対するオーナーシップの発揮 • 統計に関する専門的な知識・技能 • 勉強会やカンファレンスでの登壇 • データ分析基盤の構築・運用に携わった経験 •WEBフレームワークを用いた開発経験 •AWS・GCP・Azureなどのクラウドサービスの利用経験 •アジャイル形式でのシステム開発経験 •電力やエネルギー事業、脱炭素への関心 •計画的な業務遂行、コミュニケーション力 <歓迎資格> • 統計検定準1級以上 • 応用情報技術者、IPAシステムアーキテクト •E資格 • Azure Fundamentals
-
300~500万
▪️ 業務内容 複数事業を横断しながら、以下の業務を中心にご担当いただきます。 - Media / Marketing・HR・DX各事業における定常業務の運用・改善 - CRM(Salesforce / HubSpot等)の設計・運用・データ管理 - 各種レポート・資料作成 - 売上・顧客データの管理、分析サポート - 業務フローの整理・改善提案 - 各部署との連携・調整業務 ▪️ポジションの魅力 / やりがい - FLUXはまだまだスタートアップなので、未整備の業務や整備中の業務も数多く存在します。スピード感を感じながら、定型業務を淡々とこなすだけでなく既存のオペレーション効率化にも取り組む事ができます - マルチタスクが得意な方にとっては実力を存分に発揮いただける環境です。 - オペレーションの質=事業成長スピードと考えており、今回のポジションでは会社全体の生産性・意思決定・成長に直結する業務を担っていただきます。ただ単に「縁の下の力持ち」ではなく、経営・事業に近いポジションで活躍できる環境です。 - CRM運用スキル/データ活用力/業務設計力/IT / AI活用スキルなど、幅広いスキルが身につきます
必須スキル - 事業会社で2年以上の事務経験 - Word/Excel/Powerpointを使用した業務経験 歓迎スキル - SalesforceやHubSpotを用いたデータ入力、レポート作成経験 - IF関数・VLOOKUP関数等のエクセル関数活用経験 - AIツールを活用した業務改善経験 - 業務効率化・自動化の経験 求める人物像 - FLUXのMission / Values / カルチャーに共感いただける方 - 真面目にコツコツと丁寧に仕事ができる方 - チーム及び他部署と協力・協調して働ける方
同社はAIやSaaSなどの先端技術と専門人材を活用し、DXやメディア、HR領域でオペレーション効率化サービスを提供しています。
500~900万
・データ基盤の戦略立案や方針策定 ・データ基盤の構築・運用 ・データ利用部門との課題の定義、要件整理 ・データウェアハウスやデータマートの仕様策定や設計及び構築 ・各サービスのエンジニアと連携し、データソースをデータチームへ繋げる ・クラウドサービスを活用したシステムアーキテクチャの設計及びレビュー ・データの可視化やデータ活用の支援及びデータ設計や自動化 ・各プロジェクトで利用される BIツールの構築・運用 ・データ利活用の推進 ・データ計測の仕組みの構築・運用 ・マーケティングの効果測定で用いる計測環境を整える など IT系だとCTCやSCSK、Skyや帝人など、WEB系だとアクセンチュアやシャノンなど業界を牽引するトップ企業含め様々な企業と安定的な取引を行っております。 当社社員は、プロダクションカンパニーの一員として各社クライアントのプロジェクトに参画し、1つの会社に長年いては実現できない多彩なスキルやノウハウを身に付けることができます!
■データ分析業務の経験 ■SQLでの操作経験 ■Pythonによるデータ加工経験 ■Java、Ruby、Python、C#いずれかでの開発経験 ■Google Analytics、Adobe Experience CloudまたはBIツール(Tableau、Looker Studio、Microsoft PowerBI、その他ツール含む)いずれかのご経験 【歓迎要件】 ■Python を用いた WEB アプリケーション開発経験 ■データ基盤もしくはWEBサービスのプロダクト経験 ■TableauなどBIツールを用いた分析/可視化の業務経験 ■仮説検証に必要なデータの設計に数値からプロダクト改善提案までの経験
エクストリームの事業モデルは「デジタル人材事業」「受託開発事業」「コンテンツプロパティ事業」の3つの柱で成り立っています。コンテンツプロパティ事業やグループ企業をはじめとした自社プロダクト開発のほか、クライアントのプロジェクトを担当するので、スキルを固定化せず、常に新しいスキルを身につけることができます。変化の激しい時代に通用する、本物のデジタルクリエイター・エンジニアになれる。この自信がエクストリームで得られる大きなメリットです。
550~1500万
【職務内容】 同社は、1989年創業のITコンサルティング会社です。経営戦略とIT戦略を両輪で捉え、 お客様の未来価値最大化を使命とし、最新テクノロジーを駆使した提案から運用まで一貫したコンサルティング を提供しています。 同社内のAI専門組織であるStrategicAIGroupは、NLPや機械学習、 AIエージェントなど多様なAI技術の専門家が集結し、 基礎・応用研究を通じて先端技術力を獲得しています。 また、実ビジネスへのAI応用を両軸で推進し、特定の製品に捉われず、世にないAIを自ら開発することで、 お客様や業界の変革を支援しています。 生成AIアプリケーションエンジニアは、AIエージェントや生成AIを用いた業務アプリケーション開発、 お客様の課題に応じた業務プロセス再構築、先端技術のR&D、および社外への技術発信を行っております。 【具体的には】 ・ 基礎・応用研究を通した先端追求による基礎技術力の獲得と、実ビジネスへのAI応用を両軸ですすめる ・ 最適解の追求のために特定の製品によらず、世にないAIを自ら作り出し、 フューチャーが持つ屈指のITコンサルティング力と組み合わせて顧客・業界の変革を推進 ・ AIエージェントや生成AIを用いた業務アプリケーションの開発し、 AI-nativeな社会の実現を推進 ・ メンバーまたはテックリードとして顧客の真の課題を見極め、 業務プロセスそのものをAI前提で再構築し、技術検証および設計開発を主導(求人ID:415941)
【必須】 ・生成AIを用いたアプリケーション開発の実務経験(1.5年以上) ・LangChain/LangGraphやAgent Development KitなどのAIエージェントフレームワークを用いた開発や、RAGの精度改善、プロンプトエンジニアリングの実践、Agentic workflow(反復的な推論、ツール利用、マルチエージェント構成)などの設計・実装経験 ・生成AIシステムに限らずフロントエンドからバックエンドまでの開発経験(3年以上) ・生成AIの社会実装に関する事例、ライブラリ、サービス等への強い関心とキャッチアップ力 ・コンピュータサイエンスに関する基礎知識
【東証プライム上場、日本初のITコンサルティングファーム】 本物のITコンサルティングとは、お客様の未来のあるべき姿を、お客様と共に考え、ビジネスとシステムを同時にデザインしながら、競争優位性のある戦略的な仕組みを構築することであると私たちは考えます。経営とITを本質から理解し、企業の経営や業務の改革に向けた最適解を、お客様と共に創り上げていくこと。さらに、革新が続くIT分野で、永遠のチャレンジャーであり続けることが、フューチャーのビジネススタイルです。
1000~1300万
【職務内容】 一人目のデータエンジニアを募集します。収集データの仕様決定、パイプラインの設計・構築、全社のデータ活用ニーズに基づいたデータモデリング、BIツール設計・構築、基盤の運用保守など、データエンジニアリング領域を一気通貫で支えていただきたいです。 【具体的には】 ・ 業務内容収集データの仕様決定、パイプラインの設計・構築、 全社のデータ活用ニーズに基づいたデータモデリング、BIツール設計・構築、基盤の運用保守など、 データエンジニアリング領域を一気通貫で支える。 ・ 具体的な業務内容 ・ データ活用ニーズの明確化と、収集データの仕様決定 ・ データモデリングETL処理などパイプラインの設計・構築 ・ リアルタイム性、正確性、セキュリティ、ガバナンスなどの非機能要件定義と設計・実装 ・ BIツールの設定・構築や、分析業務の一部監視やモニタニング等含めた運用基盤の構築と実運用 【魅力】 累計500万DLを突破し、売上総利益207倍を記録する急成長EC「カウシェ」の、一人目のデータエンジニアです。各職種が自らデータ分析を行う文化の中、高度化する非機能要件に応える基盤構築を専任で主導します。ビジネスの意思決定に直結する基盤をゼロから設計する経験は、希少な市場価値とスキル向上に繋がります。 【開発環境】 BigQuery、 Dataform、 Spanner Cloud Monitoring、 Cloud Logging Terraform、 GitHub Actions Looker Studio、 Google Spread Sheets GitHub、 Slack、 Notion(求人ID:414821)
【必須】 ・ データ基盤の設計・構築・保守・運用の経験 ・ データモデリング経験、高度なSQL構築能力 ・ データ基盤の非機能要件を定義し、設計・実装できる能力 ・ Dataform、 dbt、BigQueryなどの利用経験 ・ Github、 Terrafrom、 CI/CD ・ プログラミング言語を用いたソフトウェア開発経験 【歓迎】 ・ ML基盤の構築・運用経験 ・ アナリストとしての高度なデータ分析経験 ・ バックエンドエンジニアとしてのソフトウェア開発経験 ・ テックリード経験やエンジニアリングマネジメントの経験
【シェア買いアプリ「KAUCHE(カウシェ)」を運営】 カウシェは、お友だちやご家族などの「シェア買い仲間」とのグループ購入で楽しくお得にショッピングできるシェア買いアプリです。 ショッピングセンターやデパ地下などでするショッピングのように、わいわいコミュニケーションを取りながら楽しくお得にオンラインで買い物をする体験を提供しています。