MLOpsエンジニア
700~1000万
株式会社タイミー
東京都港区
700~1000万
株式会社タイミー
東京都港区
領域特化データサイエンティスト(自然言語処理)
領域特化データサイエンティスト(強化学習)
データエンジニア
アプリのUXや、タイミーの様々な業務効率を向上させるための機械学習を用いたソリューションについて、安定した価値提供を実現するためのMLOps基盤の構築・運用をメインで担っていただくポジションです。 機械学習の学習・評価・予測を効率的に実現するためのMLOpsパイプラインの構築・保守・運用 機械学習APIサーバーの設計・開発・運用 機械学習システムのためのデータパイプライン構築 機械学習ワークフローの設計・開発・運用 ML関連の開発業務を効率化する社内ライブラリ開発など 上記を実現するため、最新の技術動向を踏まえたテックスタックの標準化や運用のための仕組みづくり IaCによるインフラ構築・管理 CI/CDによるデプロイ自動化 サービス監視設計・運用 パフォーマンスチューニングを含むSite Reliability向上のための実装など 社内のデータサイエンティスト等への教育・スキルトランスファーや採用に関する業務 ML基盤活用戦略の作成・推進や、全社的なML活用の環境整備・啓蒙活動 扱っているデータ ・アプリユーザーのアクセスログ、募集内容に関する情報 ・マッチングに関する情報 ・レビューや評価情報や、アプリインストールなどの広告効果に関わるデータ ・問い合わせに関するデータ ・営業活動情報のデータ 上記のようなデータを扱っております。
ハードスキル SQL及びPythonなどの言語を利用したデータ抽出・加工を含む、システム開発の経験(3年以上) gitを用いたチーム開発の経験 GitHub/GitLab上でのCI/CDを用いた自動化、及び運用の経験 IaCの開発経験 複数の技術スタックによる機械学習パイプラインの構築・運用経験(直近含め3年以上) 商用環境における機械学習機能の構築・運用経験(直近含め3年以上) クラウドにおける開発経験(特にGoogle Cloud、もしくはAWS)(直近含め3年以上) 保守性や運用まで考慮した技術選定・アーキ設計が出来る ソフトスキル ・当社のミッション、社会貢献性の高い事業に共感していただける方 ・当社のバリューにフィットしている方 ・業界・顧客理解のためにインプットを怠らない方 ・課題解決に向け、自ら考え、手を動かすこともできる方 ・周囲と円滑なコミュニケーションを取り、大胆に巻き込みながら仕事を進められる方 ・ロジカル一辺倒ではなく、相手に配慮したコミュニケーションが出来る方
大学院(博士)、大学院(修士)、大学院(MBA/MOT)、大学院(法科)、大学院(その他専門職)、4年制大学、6年制大学、専門職大学
正社員
無
有 試用期間月数: 3ヶ月
700万円〜1,000万円
一定額まで支給
08時間00分 休憩60分
10:00〜19:00 ※1日8時間勤務×月勤務日数分が1ヶ月の勤務時間数となります
有 コアタイム (12:00〜16:00)
有
有
120日 内訳:完全週休2日制、土曜 日曜 祝日
・リラックス休暇 ・年次有給休暇 ・年末年始休暇 ・慶弔休暇 ・産前産後休暇
健康保険 厚生年金 雇用保険 労災保険
※前職年収考慮いたします ※年2回の人事考課にて給与改定あり ※業績賞与制度あり
東京都港区
屋内禁煙(屋内喫煙可能場所あり)
在宅勤務 リモートワーク可 服装自由
アプリケーションの企画・開発・運営
最終更新日:
650~1000万
ミッション:大手クライアントのデータ利活用をリードし、データドリブンな意思決定を支援 小売・サービス・金融・通信など多種多様な業界において、データ分析基盤構築から、顧客分析、需要予測、BIによるKPI可視化まで、データ利活用をワンストップでリードします。ご経験と志向性に応じて、データエンジニアまたはデータサイエンティスト、あるいはその両方を担当します。 データ基盤構築(データエンジニア): データパイプライン、DWH、データマート、CDP、データベースなどの設計/構築、運用。 生成AI活用におけるデータ整備。 データ分析・提案(データサイエンティスト): 企業保有データ(ビッグデータ)の要件分析、機械学習などのモデル構築。 BIツールを用いたデータ可視化・ダッシュボードの利活用提案、分析結果に基づいたソリューション提案。 プロジェクトマネジメント: PMO / PM / PLとして、データ関連プロジェクトの上流から下流までを統括。 若手データエンジニア/データサイエンティストの育成・マネジメント。 ✨ ポジションの魅力 直受け100%の裁量: 大手クライアントからの直受け案件が100%であり、「言われた通りに仕事をする」ではなく「自ら提案を行っていく」がスタンダード。 ワンストップソリューション: 基盤構築、BI、データ分析、運用までワンストップでソリューションを提供し、社会価値創造に携われる。 PM/PL経験を活かせる: プロジェクトマネジメントと、ラインマネジメント(組織管理)の両方に携わるチャンスがある。 充実した学習環境: 270種類以上の資格取得支援制度、最新技術(生成AI、LLMなど)の知見を深める環境が充実。
必須要件(MUST) ①マネジメント/リード データ関連プロジェクトにおいて、PMO / PM / PL のいずれかの経験(年数不問)。 ②技術・実務経験 SQL・Pythonを用いたデータ分析、データコンサルタント、データマネジメント、データ基盤構築エンジニアのいずれかの実務経験を3年以上。 歓迎要件 Snowflake/BigQuery/Redshift等のDBからのデータ抽出経験、R/Python等のデータ分析・レポーティング経験、AWS/GCP/Azureの実務経験、生成AI/NLP/LLMに関する知見、統計・機械学習の知見、ラインマネジメント経験。 求める人物像 課題解決力、活発なコミュニケーション、最新技術の習得に貪欲な方、主体的に行動できる方。
テクノロジーコンサルティング事業、インキュベーション事業(新規事業開発)
500~850万
変革期にある商社・金融・通信業界の顧客に対し、クラウド技術を駆使したソリューションの提供を行います。 巨大な商流を支えるサプライチェーンマネジメントシステムや、高度なリスク管理が求められる金融取引システム、FinTechなどのプロジェクトにおいて、最先端の生成AI技術やクラウドインフラを活用し、ビジネス変革を支援します。 プライム案件が豊富で、要件定義から設計、実装、運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプライン、ETLプロセスの設計、実装 ・ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発およびサービスの提案 ・セキュリティ、パフォーマンス、コスト最適化のコンサルティング ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 【開発環境】 言語:Go, Java, Kotlin, Python DB:Cloud Datastore, Firestore, Cloud SQL, Cloud Spanner 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Wrike, Backlog等 【ポジションの魅力】 ・最新の生成AI技術(Gemini, Cursor, Devin等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。 ・商社、金融、通信といった大規模かつミッションクリティカルな業界のDXに携われます。
【必須】 ■受託開発における要件定義、設計、開発、テスト、運用までの一連の工程の経験 ■以下のいずれかの技術領域での経験(2年以上) ・フロントエンド開発(React、Vue.jsなど) ・バックエンド開発(Java、Python、Goなど) ・インフラ構築、運用 ・ネットワークやセキュリティ設計、構築 【歓迎】 ・商社、金融、通信業界での経験または知識 ・大規模データを扱うプロジェクトの経験 ・ミッションクリティカルなシステム開発経験 ・大規模トラフィック、高負荷環境下でのインフラ運用経験 ・コンテナ技術(Docker、Kubernetes)に関する知識・経験 ・DevOpsの実践経験 【求める人物像】 ・顧客の課題解決に真摯に向き合い、最適なソリューションを提案できる方 ・チームワークを重視し、周囲と協調して業務を進められる方 ・新しい技術や知識を積極的に吸収し、常に成長を続ける意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
500~850万
小売り・製造業界のお客様向けに、業務効率化やデジタル変革を実現するためのクラウドソリューションの設計、導入、サポートを担当していただきます。 在庫管理の最適化、需要予測、製造ラインのスマート化など業界特有の課題に対し、Google Cloud等のクラウド技術や最先端の生成AI技術を活用した提案・開発を行います。 プライム案件が豊富で、要件定義から設計、実装、運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプラインの設計、実装、ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発およびサービスの提案 ・セキュリティ、パフォーマンス、コスト最適化のコンサルティング ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 【開発環境】 言語:Go, Java, Python, Kotlin, TypeScript DB:Cloud SQL, BigQuery, Cloud Spanner, Firestore 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Backlog等 【ポジションの魅力】 ・最新の生成AI技術(Gemini, Cursor, Devin等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。 ・Google Cloudのトップクラスの実績を持つ企業で、大規模なプライム案件に携われます。
【必須】 ■ビジネスレベルの日本語コミュニケーション能力 ■以下のいずれかの技術領域での経験(2年以上) ・パブリッククラウド(Google Cloud/AWS/Azure)の設計/構築/運用 ・フロントエンド開発(Vue/React/Angular) ・バックエンド開発(Go, Java, Python等でのAPI開発) ・インフラ設計・構築・運用 ・DWH/ビッグデータ基盤の設計・構築 ・生成AIを活用したソリューション提案・開発 ・受託開発における要件定義~運用までの一連の経験 【歓迎】 ・小売り、製造業での業務システム(在庫・発受注・工程管理)の開発経験 ・大規模トラフィック、高負荷環境下でのインフラ設計・構築・運用経験 ・コンテナ技術(Docker、Kubernetes)、DevOpsの実践経験 ・機械学習に関する知識・経験 【求める人物像】 ・現場の業務課題を理解し、最適なソリューションを提案できる方 ・チーム協働を重視し、円滑なコミュニケーションができる方 ・新しい技術や知識を積極的に吸収し、常に成長を続ける意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
400~600万
ミッション:大手クライアントのデータドリブンな意思決定を上流から支援 小売、サービス、金融、通信など、さまざまな業界の大手クライアントに対し、データ分析基盤構築から顧客分析、需要予測、BI可視化・レポーティングまで、幅広いデータ利活用をリードします。 業務範囲: データ分析基盤(DWH・DM)の設計/構築。 データの加工/集計/抽出、分析設計/実施。 機械学習モデル構築、ダッシュボード(BI)の設計/構築。 施策の実施と効果分析、生成AI活用におけるデータ整備。 プロジェクトへの関わり: 大手クライアント・大手SIerとのプロジェクトに、上流から下流まで全工程で伴走。 「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」スタンス。 使用技術: 言語:SQL, Python, R ほか クラウド環境:GCP, AWS, Azure DB・DP例:BigQuery, Redshift, Snowflake, Databricks ほか BIツール例:Tableau, Looker Studio, PowerBI ほか ✨ ポジションの魅力(詳細化) 成長機会: 実務経験の浅い方には、入社後最大2ヵ月程の座学研修(SQL, Tableau, Python, 統計など)を提供。微経験からデータ分析のプロフェッショナルへの第一歩を踏み出せる。 技術力と洞察力: データベース設計、クエリ最適化などの技術的スキルに加え、ビジネス課題を解決するためのデータの洞察力(インサイト)が磨かれる。 基礎能力向上: 日本トップクラスの大規模企業のプロジェクトを通じ、「きめ細かい」シゴトを行うビジネスマンとして大切な基礎能力が最高レベルで身につく。
必須スキル(MUST) 以下の両方の経験をお持ちの方。 ・IT業界での就業経験(2年以上) 以下いずれか必須(1年以上) ・システム開発経験(Python、Java、Reactなど) ・データ抽出 または データ分析の実務経験 ・データ構築の実務経験 歓迎スキル(WANT) 以下の経験・知識をお持ちの方は優遇いたします。 ①データ基盤/DWH経験: DWH・データ基盤構築、データマートの設計・開発、BigQuery・Amazon Redshiftなどを用いたビッグデータハンドリング業務。 ②分析スキル: SQLを用いたデータ業務経験、定量データを用いたデータ分析・レポーティング経験。 ③ツール経験: Power BI や Tableau におけるダッシュボード構築経験。 ④クラウド経験: GCP / AWS / Microsoft Azure いずれかの導入・開発・実務経験。 ⑤その他: デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)、特定の業界におけるビジネス知識。
テクノロジーコンサルティング事業、インキュベーション事業
500~850万
ゲームおよびデジタルメディア業界の顧客に特化したクラウドソリューションの設計、導入、サポート及びアプリケーション開発を担当します。 クラウドエースはGoogle Cloudのトップクラスの実績を誇る企業であり、主に受託開発プロジェクトにおいて、最先端の生成AI技術やクラウドインフラを駆使し、顧客のビジネス変革を支援します。プライム案件が豊富で、要件定義から開発・運用まで一気通貫で携われるポジションです。 【具体的な業務内容】 ・クラウドインフラの設計、構築、運用(Google Cloud, AWS, Azureなど) ・データパイプライン、ETLプロセスの設計・実装、ビッグデータ処理基盤の運用 ・生成AI技術を活用した新規デジタルメディアコンテンツの開発・提案 ・要件定義から設計、実装、テスト、運用まで全工程におけるSI開発 ・プロジェクトマネージャーとの連携、新技術の調査・適用 【開発環境】 言語:Go, Java, Kotlin, Python, TypeScript DB:Cloud Datastore, Firestore, Cloud SQL, Cloud Spanner 生成AI活用:Gemini, GitHub Copilot, Cursor, v0, Devin等 その他:Terraform, Docker, GitHub, Wrike等 【ポジションの魅力】 ・プライム案件多数のため、上流工程から運用まで全体を俯瞰して携われます。 ・最新の生成AI技術(Gemini, Cursor等)を業務で積極的に活用する環境です。 ・フルリモート勤務が可能で、日本国内であれば居住地自由です。
【必須】 ・クラウドプラットフォームを利用したインフラ構築経験(3年以上) ・以下いずれかの技術領域での経験(3年以上):フロントエンド開発/バックエンド開発/インフラ構築・運用/データエンジニア ・生成AIの基本的な理解/チームでの開発経験/顧客との折衝経験 ・受託開発における要件定義~運用までの一連の工程経験 【歓迎】 ・ゲーム業界、デジタルメディア業界の知識・開発経験 ・大規模トラフィック、高負荷環境下でのインフラ運用経験 ・コンテナ技術(Docker, Kubernetes)、DevOpsの実践経験 ・機械学習に関する知識・経験 【求める人物像】 ・顧客のニーズに応じた柔軟な思考と提案力を持つ方 ・変化の激しい環境において積極的に学び続ける意欲を持つ方 ・技術革新に貢献したいという意欲のある方
Google Cloudトータルサポートサービス ・Google Cloudの導入/開発/運用支援 ・クラウドコンサルティング ・システム開発(SI) ・生成AI活用支援
700~840万
スタッフサービスグループのデータ活用を推進するため、データ活用関連システム(データパイプライン/DWH/BI)の内製開発および運用業務に携わっていただきます。 営業現場でデータを利用する方々と協力しながら、より良いサービス創出に向けてデータ活用を推進するポジションです。 【具体的な業務内容】 ・データ活用関連システム(データパイプライン/DWH/BI)の開発(設計・実装・テスト) ・データ活用関連システム(データパイプライン/DWH/BI)の運用 ・上記における、社内開発パートのとりまとめ ・各業務システムからDWHへデータを集める仕組み(データパイプライン)の開発、運用 ・データウェアハウス(DWH)の実運用および機能拡張(エンハンス)対応、運用設計 ・システムの安定稼働を支える保守業務における詳細設計・改善推進 【将来的なキャリアパス】 ・DWH全体のアーキテクチャ設計や、データアーキテクトとしてのプロジェクト参画など、上流工程への挑戦が可能です。 ・ITスペシャリストやチームマネージャー、システム開発部門やIT基盤部門へのキャリアチェンジなど、多彩なキャリアステップがあります。 【開発環境/技術】※必須ではありません DB:PostgreSQL/Oracle OS:Red Hat Enterprise Linux 言語:Pythonなどオブジェクト指向プログラミング その他:AWSなどのクラウドサービスの構築・利用経験
【必須】 ・データに興味のある方 ・システム開発でのSQL利用経験/SQL設計経験 ・システム開発での設計やプログラミング経験 ・システム開発経験(3年以上、かつ、下記いずれかに類するご経験) └10人以上のプロジェクト参画のご経験(6か月以上) └概要設計または要件定義のご経験 └実装~運用・保守まで一貫対応のご経験 【歓迎】 ・プロジェクト管理やユーザー・開発パートナーとの折衝などのご経験 ・チームリーダーのご経験 ・運用設計のご経験 【求める人物像】 ・学習意欲:技術取得への興味や、取得技術の応用など、積極的に学ばれる方 ・チームワーク:チームで協働して業務を推進でき、かつ、チームへのフィードバックを行える方 ・推進力:課題に際し、解決策の立案から対策実施を自発的に推進できる方
人材総合サービス ・人材派遣(事務、技術者、ITエンジニア、製造、医療、介護) ・紹介予定派遣 ・人材紹介 ・業務請負 他
600~900万
リテール業界向けデータプラットフォーム「Urumo」におけるデータ基盤の強化・スケーラビリティ向上をお任せします。 全国10,000店舗以上から収集される膨大なデータを活用し、ETL/ELT開発やデータマート構築、データ品質管理などを通じて、リテール業界の変革を支える重要なポジションです。 【具体的な業務内容】 ・GCP(BigQuery)を活用したデータのETL/ELT開発 ・社内外に向けたデータマートやアクセス環境の構築 ・データ管理の技術選定・データ品質管理 ・開発チームのリードやコードレビュー 【開発環境】 ・クラウド基盤:Google Cloud (BigQuery, Cloud Storage, Cloud Composer, Cloud Run, Dataflow, Dataproc) ・データ関連ツール: dbt, Great Expectations ・開発言語:Python ・開発ツール:Docker, Terraform, Datadog, GitHub, Slack 【ポジションの魅力】 ・未来を創るデータ基盤づくり:膨大なデータを活用し、スケーラブルで信頼性の高いデータ基盤を設計・構築できます。 ・自由な発想で技術革新に挑戦:新しい技術やツールを積極的に採用し、スピーディに課題解決に取り組めます。 ・裁量と成長のチャンスが豊富:データエンジニアだけでなく、アナリストやプロダクト開発者とも連携し、多様な経験を積めます。
【必須】 ・データ基盤の設計・構築・運用経験(BigQueryなどクラウド環境でのデータ加工処理、パイプライン実装など) ・Pythonなどのバックエンド言語とSQLを用いた開発経験 ・Google Cloud, AWSなどのパブリッククラウド環境の利用経験 【歓迎】 ・ビッグデータを用いた開発経験 ・ビジネスサイドや他部署との合意形成を行いながらの開発経験 ・テックリードやアーキテクトとしての技術的な意思決定・リード経験 【求める人物像】 ・新しい技術を学び成長する意欲がある方 ・課題発見・解決を主体的に行える方 ・フェズの【Mission・Vision・Value】に共感いただける方
リテールテック事業 ・リテール業界向けデータプラットフォーム「Urumo」の提供 ・購買データを活用したマーケティング支援、業務効率化支援
800~1200万
全社的なデータ戦略に基づくデータ基盤(データレイクハウス)の設計・構築・運用、およびデータエンジニアチームのリードを担当します。 1.データプラットフォームのグランドデザイン: ・Google Cloud(BigQuery/GCS/Dataflow等)を活用した、拡張性と耐障害性に優れたデータ基盤の全体設計。・バッチ処理とストリーミング処理を統合したモダンなパイプラインの設計。2.データガバナンスとセキュリティ設計:・VPC Service ControlsやIAMを駆使した、金融レベルのセキュリティ設計。・個人情報保護法や金融規制に対応したデータカタログの整備、アクセス制御ポリシーの策定。 その他勤務条件欄にも記載
【必須要件】・クラウド(Google Cloud/AWS, Azure)における大規模データ分析基盤のアーキテクチャ設計・構築経験(5年以上目安)。・データモデリング(スタースキーマ/Data Vault等)の深い知識と実践経験。 ・エンジニアチームのリーダー経験、または技術的な意思決定の責任者としての経験。 【歓迎するスキル・経験】 ・金融業界におけるデータガバナンス、コンプライアンス(FISC等)に関する知識。 ・Infrastructure as Code (Terraform) を用いた大規模インフラの管理・運用経験。
■銀行業務
600~800万
Google Cloud (BigQuery, Cloud Storage) を中核としたデータ分析基盤・AI学習基盤の設計・構築・運用を担当していただきます。 1.データレイクハウスの構築:・非構造化データ(Bronze)から構造化データ(Gold) までのパイプライン設計。BigQueryとGCSを活用した効率的なデータ管理。2.データ収集パイプラインの開発:・Cloud RunやCloud Schedulerを活用した、外部サイトからのスクレイピング(データ取得)基盤の構築と運用。・基幹システムからのデータ連携(ETL/ELT)処理の実装。3.データガバナンスと品質管理:・機密性の高い金融データを安全に扱うためのセキュリティ設計(IAM、VPC Service Controls)およびデータカタログの整備。
【必須】・SQLを用いた複雑なデータ抽出/加工/集計の実務経験・Python 等のスクリプト言語を用いたデータ処理(ETL)の開発経験・クラウドベースのDWH(BigQuery, Redshift, Snowflake等)の設計/構築/運用経験 ・テーブル設計、パーティショニング、インデックス設計など、DBパフォーマンス・チューニングの知識 【歓迎】 ・Webスクレイピング(Selenium, Puppeteer等)によるデータ収集システムの構築経験 ・データレイク / データレイクハウスのアーキテクチャ設計経験
■銀行業務
700~1200万
募集背景 当社では、全社的なデータドリブン経営への転換を進めるため VPoD(Vice President of Data)ポジションを新設し、データを経営の重要リソースと位置づけ、新たな価値創造に取り組んでいます。 その中で、Snowflakeをベースとしたデータ基盤の整備により、データ活用が急速に進展しています。この勢いを最大限に活かし、組織横断的なデータ活用と戦略的なデータ活用を実現するため、データドリブンを軸としたエンジニアの採用を決定しました。 今回、データを通じた価値創出に主体的に取り組み、組織全体のデータ活用戦略の立案から実装までを担える方を募集します。 私たちと共に、統合
▼必須スキル、経験 ・データ領域の開発経験3年以上 ・複数名での開発、プロジェクト経験 ・SQLを使った開発・運用経験 ・AWSや GCPなどを用いたクラウド上での開発・運用経験 ・DWHを用いたデータ基盤の構築・運用経験(特にSnowflake) ・データパイプラインの構築・運用経験(特にdbt) ▼歓迎スキル、経験 ・データ品質管理経験 ・ディメンショナルモデリングの理解と実装経験 ・Terraformを使ったIaC開発・運用経験 ・データオブザーバビリティツール活用経験 ・時系列データの処理・分析経験 ・組織を横断したプロジェクト経験 ・CI/CDの構築・運用経験 ▼志向性 ・実際の
■デジタルマーケティング事業 ■インターネット関連サービス事業 デジタルマーケティングへの専門性と圧倒的な事業開発力を武器に、顧客とユーザーの架け橋となる「進化推進事業」を、デジタル領域における各方面から提供しています。 ◆ビジネスモデル概要 同社の事業は、デジタルマーケティング事業とインターネット関連サービス事業を展開しています。デジタルマーケティング事業は、広告主・広告会社・メディアが抱えるマーケティング課題に対して、様々なソリューションを提供しています。インターネッ