- Gemini 2.5 ProのDeep Thinkモードと月額249.99ドルのGemini Ultraプランを発表
- Veo 3動画生成AIとImagen 4画像生成AIが大幅にアップグレード
- Project MarinerやProject Astraなど複数のAIエージェント機能を拡充
- Android StudioとWear OS 6で開発者向けの新機能を多数導入
Google I/O 2025は、Googleの年間最大の開発者会議として火曜日と水曜日にマウンテンビューのShoreline Amphitheatreで開催された。この会議では、Googleのポートフォリオ全体からの製品発表が披露され、Android、Chrome、Google Search、YouTube、そしてもちろんGoogleのAI搭載チャットボットGeminiに関する豊富なニュースが発表された。
Gemini Ultra月額249.99ドルプランの最高レベルアクセス
Gemini Ultra(現在は米国のみ)は、GoogleのAI搭載アプリとサービスへの「最高レベルのアクセス」を提供するとGoogleは説明している。月額249.99ドル(約3万8,000円)で提供され、GoogleのVeo 3動画ジェネレーター、同社の新Flow動画編集アプリ、そしてまだローンチされていないGemini 2.5 Pro Deep Thinkモードと呼ばれる強力なAI機能が含まれる。
AI UltraにはGoogleのNotebookLMプラットフォームとWhisk(同社の画像リミックスアプリ)でのより高い制限が付属する。AI Ultra加入者はまた、ChromeでのGoogleのGeminiチャットボット、同社のProject Mariner技術を搭載した一部の「エージェンティック」ツール、YouTube Premium、そしてGoogle Drive、Google Photos、Gmailで合計30TBのストレージにアクセスできる。
Deep Think in Gemini 2.5 Pro高度推論モード
Deep ThinkはGoogleの主力Gemini 2.5 Proモデルの「強化された」推論モードだ。このモードでは、モデルが回答する前に質問に対する複数の答えを検討し、特定のベンチマークでパフォーマンスを向上させる。
GoogleはDeep Thinkの動作原理について詳細を明かしていないが、OpenAIのo1-proや今後登場予定のo3-proモデルと類似している可能性がある。これらのモデルは与えられた問題に対する最適解を検索・統合するエンジンを使用していると推測される。
Deep Thinkは現在、Gemini API経由で「信頼できるテスター」のみが利用可能だ。Googleは、広範囲にDeep Thinkを展開する前に安全性評価を実施するための追加時間を取っていると述べている。
Veo 3 video-generating AI model音響機能付き動画生成
GoogleによるとVeo 3は、作成する動画に伴う効果音、背景ノイズ、さらには対話音声まで生成できるという。Veo 3はまた、前身のVeo 2と比較して生成できる映像の品質も向上しているとGoogleは述べている。
Veo 3は火曜日からGoogleのGeminiチャットボットアプリで利用開始され、月額249.99ドル(約3万8,000円)のAI Ultraプラン加入者がテキストや画像でプロンプトを送信できる。
Imagen 4 AI image generator処理速度10倍向上
Googleによると、Imagen 4はImagen 3よりも高速で、さらに高速化される予定だ。近い将来、GoogleはImagen 3の最大10倍の速度を持つImagen 4のバリエーションをリリースする予定である。
Imagen 4は、生地、水滴、動物の毛皮などの「細かいディテール」をレンダリングできるとGoogleは説明している。フォトリアリスティックなスタイルと抽象的なスタイルの両方に対応し、様々なアスペクト比で最大2K解像度の画像を作成する。
Veo 3とImagen 4は両方とも、同社の映画制作向けAI搭載動画ツールFlowの動力源として使用される。
Gemini app updates月間4億ユーザー突破
GoogleはGeminiアプリの月間アクティブユーザーが4億人を超えたと発表した。
Gemini Liveのカメラとスクリーン共有機能は今週、iOSとAndroidのすべてのユーザーに展開される。Project Astraを搭載したこの機能により、ユーザーはGeminiとほぼリアルタイムの音声会話を行いながら、スマートフォンのカメラや画面からAIモデルに動画をストリーミングできる。
GoogleによるとGemini Liveは今後数週間で他のアプリとより深く統合される予定だ。間もなくGoogle Mapsからの道案内提供、Google Calendarでのイベント作成、Google Tasksでのto-doリスト作成が可能になる。
GoogleはDeep Research(Geminiの徹底的な研究レポートを生成するAIエージェント)をアップデートし、ユーザーが独自のプライベートPDFと画像をアップロードできるようにしていると述べている。
StitchウェブアプリUI設計AIツール
StitchはWebおよびモバイルアプリのフロントエンド設計を支援するAI搭載ツールで、必要なUI要素とコードを生成する。Stitchは数語やさらには画像でアプリUIの作成をプロンプトでき、生成するデザインのHTMLとCSSマークアップを提供する。
Stitchは他の一部のvibe codingプロダクトと比較して実行できることがやや限定的だが、カスタマイゼーションオプションは相当な量がある。
GoogleはまたJules(開発者のコードバグ修正を支援するAIエージェント)へのアクセスを拡大した。このツールは開発者が複雑なコードを理解し、GitHubでプルリクエストを作成し、特定のバックログ項目とプログラミングタスクを処理することを支援する。
Project MarinerウェブサイトブラウジングAIエージェント
Project MarinerはGoogleの実験的AIエージェントで、Webサイトを閲覧・使用する。GoogleはProject Marinerの動作方式を大幅にアップデートし、エージェントが同時に約12のタスクを処理できるようになり、現在ユーザーに展開中だ。
例えば、Project Marinerユーザーは野球の試合のチケット購入やオンライン食料品の購入を、第三者サイトを一度も訪問することなく実行できる。ユーザーはGoogleのAIエージェントとチャットするだけで、エージェントがWebサイトを訪問し代わりに行動を取る。
Project Astra低遅延マルチモーダルAI体験
Googleの低遅延マルチモーダルAI体験であるProject Astraは、Search、Gemini AIアプリ、そして第三者開発者の製品で新たな体験の配列を動力源とする。
Project AstraはGoogle DeepMindからほぼリアルタイムのマルチモーダルAI機能をショーケースする方法として生まれた。同社は現在、Samsung(サムスン)氏やWarby Parker(ワービー・パーカー)氏などのパートナーと共にProject Astraグラスを構築しているが、まだ確定したローンチ日程はない。
AI ModeGoogle Search実験機能米国展開
GoogleはAIモード(複雑で複数部分からなる質問をAIインターフェース経由で行えるGoogle Searchの実験機能)を今週、米国のユーザーに展開している。
AIモードはスポーツと金融クエリでの複雑なデータの使用をサポートし、衣料品の「試着」オプションを提供する。今夏後半に展開されるSearch Liveでは、携帯電話のカメラがリアルタイムで見ているものに基づいて質問できるようになる。
Gmailは個人化コンテキストでサポートされる最初のアプリだ。
Beam 3D teleconferencing高品質3Dビデオ会議
以前Starlineと呼ばれていたBeamは、6台のカメラアレイとカスタム光フィールドディスプレイを含むソフトウェアとハードウェアの組み合わせを使用し、ユーザーが同じ会議室にいるかのように誰かと会話できるようにする。AIモデルが、異なる角度に配置されユーザーに向けられたカメラからの動画を3Dレンダリングに変換する。
GoogleのBeamは「ほぼ完璧な」ミリメートルレベルのヘッドトラッキングと60fpsの動画ストリーミングを誇る。Google Meetと併用時、Beamは元の話者の声、トーン、表情を保持するAI搭載リアルタイム音声翻訳機能を提供する。
Google Meetについて言えば、GoogleはMeetがリアルタイム音声翻訳機能を搭載すると発表した。
More AI updatesChrome・NotebookLM・Workspace機能
GoogleはChromeでGeminiをローンチし、ページのコンテキストを素早く理解しタスクを完了するのに役立つ新AIブラウジングアシスタントへのアクセスを人々に提供している。
Gemma 3nは携帯電話、ラップトップ、タブレットで「スムーズに」動作するよう設計されたモデルだ。火曜日からプレビューで利用可能で、Googleによると音声、テキスト、画像、動画を処理できる。
同社はまた、Gmail、Google Docs、Google Vidsに導入される多数のAI Workspace機能を発表した。最も注目すべきは、Gmailが個人化スマート返信と新しい受信トレイクリーニング機能を搭載し、Vidsがコンテンツ作成・編集の新方法を搭載することだ。
Video OverviewsがNotebookLMに登場し、同社はSynthID Detector(GoogleのSynthID透かし技術を使用してAI生成コンテンツの識別を支援する検証ポータル)を展開した。実験的音楽制作アプリを動力源とするAIモデルLyria RealTimeは、現在API経由で利用可能だ。
Wear OS 6統一フォントとダイナミックテーマ
Wear OS 6では、タイルに統一フォントを導入してアプリの見た目をよりクリーンにし、Pixel Watchesはウォッチフェイスとアプリの色を同期するダイナミックテーマ機能を搭載する。
新デザインリファレンスプラットフォームの中核的約束は、開発者がシームレスな移行と共にアプリでより良いカスタマイゼーションを構築できるようにすることだ。同社はFigmaデザインファイルと共に開発者向けデザインガイドラインをリリースしている。
Google PlayストアAndroid開発者向け新ツール
GoogleはAndroid開発者向けにPlay Storeを強化し、サブスクリプション処理のための新ツール、ユーザーが特定の興味に深く入り込めるトピックページ、アプリコンテンツのスニークピークを提供するオーディオサンプル、アドオン販売をよりスムーズにする新チェックアウト体験を提供している。
映画とショーの「トピックブラウズ」ページ(現在は米国のみ)は、ユーザーを数多くのショーや映画に関連するアプリに接続する。さらに、開発者はテストとリリース専用ページ、そしてアプリロールアウトの監視と改善を行うツールを入手している。Googleを使用する開発者は、重要な問題が発生した場合にライブアプリリリースを停止することもできるようになった。
サブスクリプション管理ツールもマルチプロダクトチェックアウトでアップグレードされている。開発者は間もなく、メインサブスクリプションと共にサブスクリプションアドオンを1つの支払いで提供できるようになる。
Android StudioのJourneysとAgent Mode AI機能
Android StudioはGemini 2.5 Proモデルのリリースと合わせて「Journeys」を含む新AI機能を統合している。「Journeys」は「エージェンティックAI」機能である。そして「Agent Mode」がより複雑な開発プロセスを処理できるようになる。
Android StudioはApp Quality Insightsパネルの強化された「クラッシュインサイト」機能を含む新AI機能を受け取る。Geminiを搭載したこの改良により、アプリのソースコードを分析してクラッシュの潜在的原因を特定し修正を提案する。
引用元:TechCrunch
Google I/O 2025: Everything announced at this year’s developer conference