GoogleのAIモード、米国へ展開開始 深い調査機能や比較ショッピング機能も追加

Google

  • GoogleのAIモードが今週から米国全土に展開、複雑な質問に対応可能なAIインターフェースを提供
  • AIが数百のクエリを発行し完全に引用付きのレポートを数分で生成する「Deep Search」機能を導入
  • 衣料品のバーチャル試着やプライス追跡による自動購入など、AIを活用した新しいショッピング機能も発表
  • カメラを通してリアルタイムに質問できる「Search Live」など、複数の革新的な検索機能が今夏から順次展開

GoogleのAIモード、米国全土に展開開始

Googleが火曜日に開催された年次開発者会議「Google I/O 2025」で、実験的Google検索機能「AIモード」を今週から米国全土に展開すると発表した。この機能は、AIインターフェースを通じて複雑な質問や多段階の質問をユーザーが行えるようにするものだ。

この機能は、検索結果ページの上部にAIが生成した要約を表示するGoogleの既存のAI検索体験「AIオーバービュー」をベースにしている。昨年開始されたAIオーバービューは、GoogleのAIがピザに接着剤を使うなどの疑問の残る回答やアドバイスを提供するなど、賛否両論の結果となった。

しかし、Googleによれば、AIオーバービューは精度ではなく採用という点では成功を収め、月間15億人以上のユーザーがこのAI機能を使用したという。同社は、この機能が現在Labsを卒業し、200以上の国と地域に拡大され、40以上の言語で利用可能になると述べている。

複雑な検索ニーズに対応する「Deep Search」機能

一方、AIモードでは、ユーザーが複雑な質問やフォローアップの質問を行うことが可能になる。当初はテスト用にGoogle Search Labsで利用可能だったこの機能は、PerplexityやOpenAIなどの他のAI企業が独自のウェブ検索機能でGoogleの領域に拡大する中で登場した。検索市場シェアを競合他社に譲渡する可能性を懸念したGoogleにとって、AIモードは検索の未来像を示す同社の提案だ。

AIモードがより広く展開されるにつれ、Googleは「Deep Search」を含む新機能をアピールしている。AIモードが質問を取り上げて異なるサブトピックに分解して回答する一方、Deep Searchはこれを大規模に行う。数十あるいは数百のクエリを発行して回答を提供し、自分自身で調査を掘り下げることができるようリンクも含まれる。

その結果、数分で完全に引用付きのレポートが生成され、Googleによれば何時間もかかる調査の時間を節約できる可能性があるという。

同社は、大型家電や子供向けサマーキャンプなど、比較ショッピングのためにDeep Search機能を使用することを提案している。

AIを活用した革新的なショッピング体験

AIモードに追加されるもう一つのAI搭載ショッピング機能は、衣料品のバーチャル「試着」オプションだ。これはユーザーの画像をアップロードして、該当アイテムを着用している自分の画像を生成する。Googleによると、この機能は3Dの形状や生地の種類、伸縮性を理解し、本日からSearch Labsでのロールアウトが開始される。

数カ月後、Googleは米国ユーザー向けに、特定の価格に達した後に代わりに商品を購入するショッピングツールを提供する予定だという(ただし、このエージェントを開始するには「buy for me」をクリックする必要がある)。

AIオーバービューとAIモードの両方が現在、Gemini 2.5のカスタムバージョンを使用するようになり、GoogleはAIモードの機能が徐々にAIオーバービューに展開されるとしている。

スポーツや金融データの複雑な分析が可能に

AIモードはスポーツや金融のクエリにおける複雑なデータの使用もサポートし、近いうちにLabsを通じて利用可能になる予定だ。これにより、「過去5シーズンのフィリーズとホワイトソックスのホームゲーム勝率を年ごとに比較して」といった複雑な質問ができるようになる。AIは複数のソースを検索し、そのデータを単一の回答にまとめ、データをより理解しやすくするために即座に視覚化も作成する。

もう一つの機能は、ウェブと対話してユーザーの代わりにアクションを実行できるGoogleのエージェント「Project Mariner」を活用している。当初はレストラン、イベント、その他の地元サービスに関するクエリで利用可能で、AIモードは複数のサイトで価格や空き状況を調査する時間を節約し、手頃な価格のコンサートチケットなど、最適なオプションを見つけることができる。

カメラを活用した「Search Live」と個人化された検索体験

今夏後半にロールアウト予定の「Search Live」では、スマートフォンのカメラがリアルタイムで見ているものに基づいて質問することができる。これはGoogle Lensの視覚的検索機能を超え、GoogleのマルチモーダルAIシステム「Project Astra」と同様に、ビデオとオーディオの両方を使用してAIとインタラクティブな会話を行うことができる。

検索結果は過去の検索に基づいてパーソナライズされ、今夏にロールアウトされる機能を使用してGoogleアプリに接続することを選択した場合にも適用される。たとえば、Gmailを接続すると、Googleは予約確認メールから旅行の日程を把握し、訪問先の都市で滞在中に開催されるイベントを推奨することができる(プライバシーに関する懸念に対応するため、Googleはいつでもアプリの接続や切断ができることを強調している)。

同社によると、パーソナライズされたコンテキストでサポートされる最初のアプリはGmailだという。

引用元:TechCrunch
Google’s AI Mode rolls out to US, will add support for deeper research, comparison shopping, and more

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です