- GoogleがOpenAIのChatGPTに出遅れてから2年超、AI開発のペースを劇的に加速
- 最新モデルGemini 2.5 ProとGemini 2.0 Flashの安全性報告書が未公開のまま
- 専門家からは開発の迅速さが透明性を犠牲にしているとの懸念の声
Googleの加速するAIモデル開発ペース
OpenAIのChatGPTのリリースに足元をすくわれてから2年以上が経過し、Googleはそのペースを劇的に加速させている。
3月下旬、GoogleはAI推論モデル「Gemini 2.5 Pro」を発表し、コーディングと数学能力を測る複数のベンチマークで業界をリードする結果を示した。このリリースは、同テック大手が当時の最先端モデルであった「Gemini 2.0 Flash」をデビューさせてからわずか3ヶ月後のことだった。
GoogleのGeminiプロダクト責任者であるTulsee Doshi(タルシー・ドシ)氏は、同社のモデルリリースのケイデンスの加速は、急速に進化するAI業界に追いつくための協調的な取り組みの一環だと述べた。
「我々はまだ、これらのモデルを公開する適切な方法、フィードバックを得る適切な方法を見極めようとしている」とドシ氏は語った。
Google DeepMind has released a new flagship model, Gemini 2.5 Pro.
We evaluated it on GPQA Diamond, and found a score of 84%, exactly matching the result reported by Google. This is the best result we have found on this benchmark to date! pic.twitter.com/CwrnTgHTDn
— Epoch AI (@EpochAIResearch) April 2, 2025
安全性報告書の遅れと透明性への懸念
しかし、リリース時間枠の加速にはコストが伴っているようだ。Googleはまだ、Gemini 2.5 ProやGemini 2.0 Flashを含む最新モデルの安全性報告書を公開しておらず、同社が透明性よりも速度を優先しているのではないかという懸念が生じている。
現在、OpenAI、Anthropic、Metaを含むフロンティアAIラボでは、新しいモデルを発表する際に安全性テスト、性能評価、ユースケースを報告することが標準的になっている。「システムカード」または「モデルカード」と呼ばれるこれらの報告書は、何年も前に産業界と学術界の研究者によって提案された。Googleは実際、2019年の研究論文でモデルカードを最初に提案した企業の一つであり、それらを「機械学習における責任ある、透明で説明責任のある慣行へのアプローチ」と呼んでいた。
ドシ氏は、同社がGemini 2.5 Proのモデルカードを公開していないのは、このモデルを「実験的」リリースと考えているためだと述べた。これらの実験的リリースの目的は、限定的な方法でAIモデルを公開し、フィードバックを得て、本番リリースに先立ってモデルを改良することだという。
ドシ氏によると、GoogleはGemini 2.5 Proを一般提供する際にモデルカードを公開する予定であり、同社はすでに安全性テストと敵対的レッドチーミングを行っていると付け加えた。
安全性報告書の重要性と規制の動き
後日のメッセージで、Googleの広報担当者は、安全性は引き続き同社の「最優先事項」であり、今後Gemini 2.0 Flashを含むAIモデルに関するより多くの文書を公開する予定だと述べた。一般提供されているGemini 2.0 Flashにもモデルカードがない。Googleが最後に公開したモデルカードは、1年以上前に発表されたGemini 1.5 Pro用のものだった。
システムカードとモデルカードは、企業が常に広く宣伝しているわけではない有用な、そして時には耳の痛い情報を提供する。例えば、OpenAIがその推論モデルo1用に公開したシステムカードでは、同社のモデルが人間に対して「策略を用いる」傾向があり、密かに独自の目標を追求することが明らかにされた。
AI業界は概ね、これらの報告書を独立した研究や安全性評価をサポートする誠実な取り組みと見なしているが、近年これらの報告書はさらに重要性を増している。以前Transformerが指摘したように、Googleは2023年に米国政府に対し、「範囲内」の「重要な」公開AIモデルリリースすべてに安全性報告書を公開すると述べていた。同社は他の政府にも同様のコミットメントをし、「公的透明性を提供する」ことを約束していた。
米国では連邦レベルと州レベルでAIモデル開発者のための安全性報告基準を作成する規制の取り組みがあったが、採用と成功は限定的だった。注目すべき試みの一つは、テック業界が激しく反対したカリフォルニア州法案SB 1047であり、これは拒否権を発動された。立法者たちはまた、米国の人工知能標準設定機関である米国AI安全研究所にモデルリリースのガイドラインを確立する権限を与えるための法案を提出した。しかし、安全研究所は現在、トランプ政権下での予算削減の可能性に直面している。
あらゆる様相から見て、Googleはモデルテストの報告に関する約束の一部を果たせないでいる一方で、かつてないほど速いペースでモデルを出荷している。多くの専門家が主張するように、これは悪い前例だ — 特にこれらのモデルがますます高性能で洗練されるようになるにつれて。
引用元:TechCrunch
Google is shipping Gemini models faster than its AI safety reports