2024年8月15日
Google Cloud Next Tokyo ’24 参加レポート (生成AI、データ分析、移行関連)
-
- Category Google Cloud

前回の記事 Google Cloud Next Tokyo ’24 参加レポート【概要編】では、当日のながれや会場の様子を中心に紹介しました。
Day1、Day2を通して約150セッションある中で、話題の生成AIやデータ分析を中心にセッションをまわってきましたので
それぞれをピックアップしてお届けします。
イベント概要
項目 | 内容 |
---|---|
イベント名 | Google Cloud Next Tokyo ’24 https://cloudonair.withgoogle.com/events/next-tokyo-24# |
日時 |
2024年8月1日 (木) 10:00 ~ 18:00 2024年8月2日 (金) 10:00 ~ 18:00 |
主催 | グーグル・クラウド・ジャパン合同会社 |
特徴 | 【セミナー詳細】 【会場】 パシフィコ横浜ノース 【会場マップ、タイムテーブル】 |
開催形式 | 会場での対面形式(パシフィコ横浜ノース) |
定員 | 事前申し込み制のためお席に限りがございます |
参加費 | 無料(事前来場登録制) |
セッション(その1):データベース
『type 就活』DX 成功は Amazon RDS から AlloyDB への完全移行にあった
【日時】
Day1 16:00~16:30 D1-DB-02
【主な利用サービス/プロダクト】
当社(システムサポート)のセッションです。
コロナ禍における就活市場の変化において、それまでオフライン中心だった就活イベントを「オンライン型」へいち早く対応させた「type就活」。それにより登録者を増加させることに成功した中で、システムの安定稼働に向けた課題に対してビジネス/システムの両側面から、
どのように解決してきたかの成功事例を対談形式で紹介しました。
https://typeshukatsu.jp/
【課題】
- 登録者数が増加したことで、就活イベント時には「type就活」に対する高い負荷が発生
- 特に、大型イベントでは更なる高い負荷が予想されシステムダウンへの懸念があった
【ポイント】
・移行/運用コストへ大きなインパクトを出さない
既存のシステム構成(AWS)を踏襲してGoogle Cloudへシステム移行
・負荷に対する対策
・高負荷時には、Google Cloudのオートスケール機能でサーバー(マシン)を増やして負荷分散
(状態に合わせて自動でスケールするため、スペック増の予約も不要でコスト/運用面もスリム化)
・高パフォーマンス&高可用性のある「AlloyDB」を採用し、MySQLからマイグレーション
(標準のPostgreSQLに比べて、トランザクションは4倍高速、分析クエリは最大100倍高速に)
「オンライン型へ、いち早く対応させる」という課題解決につなげたエピソードは
コロナ禍での課題感としてとてもリアルで、すばやく対応させる決断力や実現力の高さがとても印象的でした。
また、大規模イベントが予定されている中での限られた時間で「AWSからGoogle Cloudへの完全移行」は、
課題に対してシッカリとポイントがおさえられており、パフォーマンス面へのアプローチだけでなくコストや運用面も加味したベストなソリューションですね。

※BigQueryを主としたデータ分析基盤「ADDPLAT」の導入も紹介がありました。ユーザーの属性や行動データなどから分析・可視化を行い、サービスの成長に活用いただいております。
https://www.sts-inc.co.jp/products/product_addplat.html

※セッション後のAsk the Speaker の様子です。
セッションは満席で、Ask the Speakerへも行列ができておりました。足を運んでくださりありがとうございます。
セッション(その2):AIと機械学習
Vertex AIの業務への活用・導入のポイント
【日時】
Day2 12:00~12:30 D2-GL-09

【主な利用サービス/プロダクト】
【概要】
生成AIをGoogle Cloud上で取扱えるマネージドなプラットフォームである「Vertex AI」中心のセッションです。
「Vertex AI の概要」「リスクと対策」「活用事例」の3部構成で、これから Vertex AI を活用されるかたへ向けても
ポイントが抑えられていて、活用するうえでとてもイメージしやすい内容なのと要所に登場する親しみのあるスライドも印象的でとても楽しく拝聴しました。
【生成AI、Vertex AI】
「生成AI」の代表的なモデルである「Gemini」からスタート。
Google Cloud × 生成AI としても欠かせないキーワードですね。
Vertex AIは、Geminiをはじめとする豊富な基盤モデルを活用できることが可能です。
※参考:モデル情報
https://cloud.google.com/vertex-ai/generative-ai/docs/learn/models?hl=ja
【リスクと対策】
生成AIを取り扱う上で心配される「情報漏えい」「著作権の侵害」「ハルシネーション」に対して、
以下をリスク対策にしていくことで、取り扱いに注意しながら活用していくイメージを持てました。
・「情報漏えい」への対策
Vertex AIは「安全性属性」を構成することができるため、機密情報の取り扱に対しても許可の有無を設定して取り扱うことが可能です。
例として「安全でないコンテンツ」をブロックしたりフィルタリングすることが可能ですので、詳細は参考リンクもご参照ください。
※参考:安全性属性を構成する | Vertex AI の生成 AI | Google Cloud
https://cloud.google.com/vertex-ai/generative-ai/docs/multimodal/configure-safety-attributes?hl=ja
※参考:安全に使用するためのベスト プラクティス | Vertex AI の生成 AI | Google Cloud
https://cloud.google.com/vertex-ai/generative-ai/docs/learn/responsible-ai?hl=ja
・「著作権の侵害」への対策
生成AIを取り扱ううえで、著作権の問題が発生した場合の法的リスクの対策へは、
Google Cloud 公式ページに掲載されている補償の考えについて紹介があり、ユーザにとっても安心して利用いただける印象を受けました。
(詳細は以下の記事をご参照ください)
※参考:Protecting customers with generative AI indemnification | Google Cloud 公式ブログ
https://cloud.google.com/blog/ja/products/ai-machine-learning/protecting-customers-with-generative-ai-indemnification
・「ハルシネーション」への対策
事実とは異なる情報を利用した回答の生成してしまうことです。
これを減らす対策として、検索拡張生成(RAG)を用いてさまざまなデータソースに拡張することができ、回答結果の確度を上げていくことにつながります。
【活用、事例】
ユースケースとしては、社内の文章検索や自動応答などの紹介がありました。
このあたりは、Vertex AIが得意とする領域ですね。
Vertex AI Studio を活用した「プログラミングコードへ変換」→「アプリケーションへ組み込める」のデモンストレーションは、とてもクイックかつスマートでとてもワクワクしました。
セッション(その3):データ分析
データ分析環境の Google Cloud 移行
【日時】
Day2 17:00~17:30 D2-DA-06
【主な利用サービス/プロダクト】
【概要】
クイックコマース分野におけるデータ分析環境を移行した事例です。
AWS → Google Cloud へデータ分析基盤を移された背景や課題感に加え、
コストの25%削減や分析パフォーマンスの大幅な向上について紹介いただきました。
【背景】
コロナ禍でサービスの需要が増え、データ活用の需要も拡大した中で、
以下の3点が課題として挙げられていました。
- 分析業務のスピードが追いつかないビジネス面の課題
- 既存のシステムでは運用しきれない環境面の限界
- 既存環境での将来性への懸念

ビジネス面の課題

システム面の課題

既存環境(移行前)における将来性への懸念
【なぜ、Google Cloud に?】
競合との競争が激化する状況下において「分析と情報」が抜け出すためのカギとなるため、業界スタンダードな分析環境を求めたことを語られていました。以下、Google Cloud が分析基盤に選ばれたポイントです。
- BigQuery のレスポンスの速さ
- Google広告、Googleアナリティクスとの連携の容易さ
- 各種BIツールとの連携コネクタの豊富さ
- Google のエコシステムの魅力など

なぜ Google Cloudに?

アナリティクス観点の理由
【導入ポイント】
AWS → Google Cloud をベースに、対応するプロダクトへ移行しつつ、新構成で新たに導入された「データカタログ」についてのポイントも紹介いただきました。

新旧DWHの比較
データカタログ(Dataplex)の採用で「なにがどこにあるかを可視化」することにつながったことが、自己解決しやすい流れができ、ビジネスユーザが利用するうえでも重要なポイントになっていると感じました。

データカタログの作成
【導入結果】
背景にあった、課題(問題)についての結果です。
- データ統合:統合が進み、分析の幅&精度&スピードがUP!
- ソリューション導入:Googleのサービスをハードル高くなくクイックに試せる
- SQLレスポンス:BigQueryの導入で分析処理の大幅改善に加え、高粒度のデータ処理が可能に
- 採用・教育:経験者の応募や採用が増加(トレーニングコストの削減、スキルチャレンジプログラムの活用)

問題がどう改善されたか?
また、Firebase や Looker Studioの活用した事例もあるようで、すごく興味を引きました。
(Ask the Speakerでタイミングが合わず残念・・・)

その他の事例
まとめ
Google Cloud Next Tokyo ’24 のセッションをピックアップしてお届けしました。
各カテゴリで Gemini や Vertex AI などの「生成AI」を交えたものが多く、実際に導入事例も増えてきた印象が強かったです。
ラスベガスで開催されたNextでもAIを用いたサービスの紹介やリリース情報がされていたこともあり、
日本国内でも生成AI分野の勢いを感じますね。
システムサポートでも生成AI・データ分析への取り組みやサービス事例もございますので、
ビジネス課題の解決に向けたお悩みなど、ぜひお聞かせください。
頂きましたご意見につきましては、
今後のより良い商品開発・サービス改善に活かしていきたいと考えております。