- GoogleがProject AstraをGoogle検索、Gemini、サードパーティ開発者製品に統合
- Google検索でSearch Live機能を実現、リアルタイム映像・音声でAI対話が可能
- 開発者向けLive APIがProject Astraで強化、感情検出機能も追加
- Samsung・Warby Parkerとのスマートグラス開発は継続中、発売日は未定
Google I/O 2025でProject Astraの大規模展開を発表
Googleは火曜日のGoogle I/O 2025において、同社の低遅延マルチモーダルAI体験であるProject Astraが、Google検索、GeminiAIアプリ、そしてサードパーティ開発者製品における一連の新体験を支えることになると発表した。
最も注目すべきは、Project AstraがGoogle検索の新機能「Search Live」を支えることだ。GoogleのAI検索機能であるAI Modeや、ビジュアル検索機能のLensを使用する際、ユーザーはスマートフォンのカメラを通して見ているものについて質問するため「Live」ボタンをクリックできる。Project Astraはライブ映像と音声をAIモデルにストリーミングし、ほぼ遅延なしでユーザーの質問に対する回答を返す。
Google DeepMindからの進化とスマートグラス開発計画
バイラルなスマートグラスデモでGoogle I/O 2024で初披露されたProject Astraは、ほぼリアルタイムのマルチモーダルAI機能を披露する手段として、Google DeepMindから生まれた。Googleは現在、Samsung(サムスン)やWarby Parker(ワービー・パーカー)を含むパートナーとともにProject Astraグラスを構築していると述べているが、同社はまだ確定した発売日を設定していない。同社が持っているのは、消費者と開発者向けのProject Astra搭載機能の多様性だ。
開発者向けLive APIの大幅強化
GoogleはProject Astraが、Geminiとの低遅延音声インタラクションを可能にする開発者向けエンドポイントであるLive APIの新機能を支えていると述べている。火曜日から、開発者はProject Astraと同様に、音声と視覚入力、およびネイティブ音声出力をサポートする体験を構築できる。Googleによると、アップデートされたLive APIには強化された感情検出機能も含まれており、AIモデルがより適切に応答し、Geminiの推論AIモデルからの思考機能も含まれているという。
Geminiアプリでリアルタイム機能を全ユーザーに開放
GeminiアプリにおいてGoogleは、Project Astraのリアルタイム映像と画面共有機能が全ユーザーに提供されると述べている。Project AstraはすでにGemini Liveの低遅延会話を支えているが、この視覚入力は以前は有料サブスクライバーに限定されていた。
GoogleはProject Astraが同社の多くの製品の未来であり、スマートグラスという全く新しい製品カテゴリーを支えることさえできると確信しているようだ。それが事実かもしれないが、Googleは昨年デモを行ったProject Astraスマートグラスの発売日をまだ設定していない。同社はそれらのスマートグラスがどのようなものになるかについていくつかの詳細を提供しているが、それらはまだ現実からは程遠いようだ。
引用元:TechCrunch
Project Astra comes to Google Search, Gemini, and developers