SW 231 – Google I/O 2025
- Webrain Production Team
- 5月29日
- 読了時間: 6分
今回のSeattle Watchでは、先日のGoogle I/Oで発表されたGoogle製品/サービスの主要なAI機能について紹介し、Googleの将来とそれが市場に与える影響について見ていきたいと思います。
Google I/Oは、Googleが毎年開催する開発者向けカンファレンスです。今年は5月20日に開催され、例年通りCEOのスンダー・ピチャイ氏による基調講演で幕を開け、その内容はほぼAI一色でした。今回のSeattle Watchでは、Google I/O 2025で発表された主要なAI機能とGoogleの将来について見ていきたいと思います。
Geminiの進化
Googleの生成AIモデルGeminiは、主力モデルのGemini 2.5 Proの性能が向上し、生成AIや大規模言語モデル(LLM)の評価プラットフォームであるLMArenaの全カテゴリーで1位を獲得したと発表しました。同モデルは、長文コンテキスト処理やビデオ理解といった領域でも最先端の性能を発揮しており、数週間以内に一般向けの提供が予定されています。また、速度と低コストを重視して設計されたモデルであるGemini 2.5 Flashでも、推論、マルチモーダル、コード、長文コンテキストに関する主要なベンチマークで性能が改善しています。
Google Search AI Mode
検索エンジンの分野では、「AI Mode」という新機能を発表しました。この機能は、ユーザーが知りたい内容を話し言葉で打ち込むと、AIが典拠を示した上で、内容を分析して回答してくれるというもので、追加質問して情報をさらに絞り込むことも可能です。この機能は、ChatGPTやPerplexity AIといった対話型AIによる検索によって、キーワードを入力して調べる従来の検索手法が陳腐化していることに影響を受けたもので、競合他社への追随を狙っています。実際のデモでは、「リビング用のラグを探す際、ライトグレーのソファがあるから部屋を明るく見せたい」と自然言語で入力すると、候補の商品が画像付きで表示され、「やんちゃな子どもが4人いる」という条件を追加すると、耐久性のある素材で作られたラグに絞り込まれました。特に興味深いのは、Personal Context(パーソナルコンテキスト)と呼ばれる機能が搭載されていることで、ユーザーが許可を与えることで、Google検索に自分のGmailやカレンダーなど他のサービスの情報を読み込ませ、過去の購買履歴や関心に基づいて結果を絞り込んだり提案内容を調整したりできます。
Project Mariner
Googleは、エージェントモード(作業代行機能)をGeminiアプリに搭載すると発表しています。この機能は、AIが人間のマルチタスクをどのように支援できるかを研究するProject Marinerというプロジェクトの成果で、例えば、「家賃1,200ドルで近くにコインランドリーのある賃貸物件を探す」といったウェブ上での作業をユーザーに代わって実行するエージェントとなっています。このエージェントモードはMCP(Model Context Protocol: AIと外部のデータやツールをつなぐための共通ルール)を活用しており、物件情報へアクセスや、ユーザーに代わっての内見予約までも行うことができます。
Project Astra
Project Astraとは、スマホのカメラに映る現実世界の映像をGeminiがリアルタイムに解釈し、ユーザーを支援するというユニバーサルAIエージェント構想です。この機能は、Geminiとリアルタイムで会話をするGemini Liveの中で実装されることになり、スマホのカメラ映像や画面をAIと共有すると、映った物体や周囲の状況をAIが理解して調べ物をしたり相談に乗ったりしてくれます。例えば、カメラに映した書類や商品をその場で解析して説明したり、現実空間の中から目的の物を一緒に探したりといったことが可能です。この機能は、視覚障がい者をアシストする用途などにも応用可能で、グラス型デバイス(後述)とも密接に関係しています。
Android XR
Android XRは、昨年12月に発表された様々なXRデバイスをサポートするプラットフォームであり、Gemini、カメラ、マイク、スピーカーとの連携によって、ユーザーと同じ視点から状況を理解し、メッセージ送信、写真撮影、マップ表示、リアル翻訳字幕などのハンズフリーでのサポートを提供します。このAndroid XRは、今年中に発売予定のSamsung製の「Project Moohan」というコードネームのヘッドセットデバイスに搭載される予定です。また、Android XRは、メガネ型デバイスにも対応可能で、Googleでは、Gentle MonsterやWarby Parkerなどのアイウェアブランドと提携し、スマートグラスの開発を進めています。
Google Beam
Google Beam(旧Project Starline)は、3Dビデオ会議システムで、VRゴーグル不要で裸眼で立体視を実現するライトフィールドディスプレイによって、臨場感あるコミュニケーションを実現することができます。これは、ディスプレイの額縁に内蔵された6台のカメラで人物を複数アングルから撮影し、それをAIがリアルタイムで3Dモデルに変換し、相手側の裸眼立体視ディスプレイに表示するという仕組みになっています。
Google Flow
Flowは、動作生成AIの「Veo 3」と、画像生成AI「Imagen 4」を組み合わせた映像制作ツールで、3つの画像と映像のイメージをプロンプトで入力すると数秒のシーンを生成してくれます。これにプロンプトを加えることで、シーン間の一貫性を保ったまま、カットの増加や尺の延長を行うことができ、長編映像を作成することが可能です。ちなみに、Veo 3では効果音やセリフも映像とシンクして出力させることが可能で、Imagen 4では、画像内に描かれるテキストがより高精度になるような改良が行われています。Flowは、有料プラン「Google AI Ultra」(月額249.99ドル)と、「Google AI Pro」(29.99ドル)で使用可能です。
Synth ID
Synth IDとは、AIが生成したコンテンツを判定するための透かし(ウォーターマーク)技術です。これは、生成 AIが誤った情報を出力する可能性があるという懸念を軽減するための解決策の1つで、AI が生成した画像、音声、テキスト、動画に、人間には認識できないデジタル透かしを直接埋め込むことで、AI 生成コンテンツを識別するという仕組みです。同技術のテキスト版はオープンソース化されて多くのデベロッパーが利用できるようになっており、SynthIDが入っているかどうかを検出できるツールが早期テスター向けに提供開始されています。
検索連動広告を主力事業とするGoogleは、「イノベーションのジレンマ」(既存の成功モデルに固執し、新しい技術やビジネスモデルの変革に遅れ、結果的にトップの地位を失ってしまう現象)に陥っているという指摘がされています。 そうした懸念を払拭すべく、CEOのピチャイ氏は、「AIの新機能は、Google検索を完全に再構築するものだ」と強調し、30年前のコダック(写真フィルムで高収益を上げていたが、デジタルカメラという新技術に全面的に舵を切ることができなかったために敗れ去った)のような失敗を避けようとしているように見えます。
起業家でニューヨーク大学スターン経営大学院の経営学者であるスコット・ギャロウェイ氏は、AI競争の勝敗を分ける要素は、ハードウェア(半導体)、AIモデル、そしてデータの3つであると述べています。その点、Googleは、検索、YouTube、Gmail、Google Map、Google Calendarといったさまざまなアプリからユーザーデータを蓄積しており、これこそがGoogleの最大の強みであると指摘しています。そのため、今回の発表にあったPersonal Context(パーソナルコンテキスト)はGoogleにとって特に重要な戦略になっていくのではないかと予想されます。
また、最近注目されているのが「AEO(Answer Engine Optimization:応答エンジン最適化)」という概念です。AEOとは、AIがウェブ上のコンテンツを「最適な答え」として直接引用・採用するように最適化する手法であり、まさにAI時代のSEO(検索エンジン最適化)と呼べるものです。従来のSEOが検索結果ページにおける上位表示を狙うものであったのに対し、AEOはAIアシスタントや検索エンジンの生成系応答において、いかに自社コンテンツが答えとして採用されるかを重視します。生成AIの普及によって、ユーザーの検索体験そのものが大きく進化する中で、この分野は今後さらに注目を集めると考えられます。こうした変化の中において、Googleがどのように時代の最先端を牽引し続けるのか、今後もその動向から目が離せません。
Webrain Production Team
Comments