- Googleは「Google I/O 2025」において、GeminiアプリにリアルタイムAI動画機能や高度な「Deep Research」機能など、多数のアップデートを発表した。
- 「Gemini Live」のカメラと画面共有機能がiOSおよびAndroidの全ユーザーに展開され、リアルタイムでの視覚的AI対話が可能となる。
- 「Deep Research」機能は、GoogleドライブやGmail内も検索対象となり、ファイルアップロードによる質問ガイドも可能になることで、よりパーソナライズされた詳細な調査レポート作成に対応する。
- 今回のアップデートは、GeminiをGoogleの製品エコシステム全体に深く統合し、より包括的で実用的なAIアシスタントを目指すGoogleの戦略の一環である。
Geminiアプリ、リアルタイムAI動画と進化したDeep Researchを導入
Googleは、開催中の「Google I/O 2025」において、同社の人工知能(AI)チャットボット「Gemini」アプリに、リアルタイムのAI動画解析機能や大幅に強化された「Deep Research」機能など、複数の新機能を追加すると発表した。
特に注目されるのは、「Gemini Live」のカメラと画面共有機能の拡充だ。これにより、5月20日よりiOSおよびAndroidの全ユーザーが、デバイスのカメラを通じてリアルタイムで周囲の状況や画面の内容をGeminiに認識させ、それに基づいて質問をしたり、指示を出したりすることが可能となる。これは、AIがユーザーの視覚情報と連動し、より直感的な対話体験を提供するものだ。Googleによると、このリアルタイムAI音声機能は、GoogleカレンダーやGoogleタスクといった他のGoogleアプリとも近日中に統合される予定で、「Gemini Live」での会話は通常のAIチャットと比較して5倍長く続くなど、既に大きな反響を呼んでいるという。
Deep Research機能がGoogle DriveとGmailと連携
昨年1月にGemini Advancedで日本語にも対応していた「Deep Research」機能も大幅に進化する。この機能は、複雑なトピックに関する情報をウェブ上から収集し、包括的で分かりやすいレポートにまとめるものだ。今回のアップデートにより、「Deep Research」はGoogleドライブやGmailのコンテンツも検索対象に含めることが可能になり、ユーザーはよりパーソナルかつカスタマイズされた調査レポートを作成できるようになる。
さらに、5月20日からは、ユーザーがファイルをアップロードして質問やプロンプトを入力することで、「Deep Research」の調査内容を具体的にガイドすることも可能になった。これにより、ビジネス分析から個人的な興味の追求まで、幅広いリサーチニーズに対応できるようになる。
エコシステム全体でのAI統合を加速
今回のGeminiアプリのアップデートは、GoogleがAIを自社の製品エコシステム全体に深く統合し、より賢く、より役立つパーソナルAIアシスタントを目指す戦略の一環である。GeminiはすでにChromeブラウザにも導入され、ウェブページを閲覧しながら文脈を理解し、レビュー比較などに役立つ機能を提供している。また、Project Astraといった先進的なAI技術がGeminiアプリやGoogle検索の新機能に活用されることも明らかにされている。
これらの機能強化は、ユーザーが日常の作業や情報探索において、AIをよりシームレスかつ効率的に活用できる新たな時代を切り開くものとして期待されている。
引用元:TechCrunch
Google updates the Gemini app with real-time AI video, Deep Research, and more