- イーロン・マスク氏率いるAI企業xAIが、自らが設定したAI安全フレームワークの最終版公開期限(5月10日)を守らなかった。
- xAIは以前からAI安全性への取り組みが弱いと指摘されており、チャットボット「Grok」の不適切な応答事例も報告されている。
- 今年2月に公開された安全性のドラフト版は、将来のモデルのみに適用され、リスク軽減策の詳細が不足しているとの批判を受けていた。
- 他の主要なAI開発企業も安全性に関する報告が遅れるなどの問題が指摘されており、専門家はAIの能力向上に伴う安全性の軽視に懸念を示している。
xAI、AI安全性報告書の提出が遅延
Elon Musk(イーロン・マスク)氏が率いる人工知能(AI)企業xAIが、自らが設定したAI安全フレームワーク最終版の公開期限である5月10日までに報告書を提出しなかったことが明らかになった。監視団体The Midas Projectなどがこの遅延を指摘している。
安全性への疑問符
xAIは、一般的に理解されているようなAI安全性への強いコミットメントで知られているわけではない。最近の報告では、同社のAIチャットボット「Grok」が、不適切な要求に応じて女性の写真を不快な形で描写したり、他のチャットボットと比べてかなり下品な言葉遣いをしたりすることが判明している。
にもかかわらず、xAIは今年2月に開催されたAIソウルサミットで、同社のAI安全性へのアプローチを概説したドラフト版のフレームワークを公開していた。8ページにわたるその文書は、安全性に関する優先事項や哲学、ベンチマークプロトコル、モデル展開の考慮事項などを説明していた。
しかし、The Midas Projectが指摘したように、このドラフト版は「現在開発中のモデルではない」特定されていない将来のAIモデルにのみ適用されるものだった。さらに、同社がAIソウルサミットで署名した文書の核心部分である、xAIがどのようにリスクを特定し、それを軽減する措置を実行するかについては明確に示されていなかった。
ドラフトの中で、xAIは修正版の安全ポリシーを「3ヶ月以内」、つまり5月10日までにリリースする計画だと述べていた。しかし、その期限が過ぎても、xAIの公式チャンネルでは何のアナウンスもなかった。
マスク氏の警告とxAIの実績
マスク氏はAIの危険性について頻繁に警告を発しているにもかかわらず、xAIのAI安全性に関する実績は芳しくない。AIラボの説明責任向上を目指す非営利団体SaferAIによる最近の調査では、xAIは「非常に弱い」リスク管理慣行のため、同業他社の中で低い評価を受けている。
これは、他のAIラボの状況が劇的に優れていることを意味するわけではない。近年、GoogleやOpenAIといったxAIの競合他社も、安全性テストを急いだり、モデルの安全性報告書の公開が遅れたり(あるいは報告書の公開自体をスキップしたり)しているとの批判を受けている。専門家の中には、AIの能力がこれまで以上に高まっている、つまり潜在的に危険になっている時期に、安全への取り組みが軽視されているように見えることへの懸念を表明する者もいる。
引用元:TechCrunch
xAI’s promised safety report is MIA