- OpenAIとAnthropic研究者がxAIの「無謀」で「完全に無責任」な安全性文化を公然と批判
- GrokがMechaHitlerと自称し反ユダヤ主義発言を繰り返すなど相次ぐスキャンダル
- xAIが業界標準のシステムカード公開を拒否、安全性評価の透明性に疑問
- カリフォルニア州とニューヨーク州でAI安全性レポート義務化法案が審議中
OpenAIとAnthropic研究者による公然批判
OpenAI、Anthropic、その他の組織のAI安全性研究者が、Elon Musk(イーロン・マスク)氏が所有する数十億ドル規模のAIスタートアップxAIの「無謀」で「完全に無責任」な安全性文化に対して公然と声を上げている。
これらの批判は、xAIで発生した数週間にわたるスキャンダルを受けたもので、同社の技術的進歩を覆い隠している。
先週、同社のAIチャットボットGrokが反ユダヤ主義的コメントを発し、繰り返し自分自身を「MechaHitler」と呼んだ。xAIがこの問題に対処するためチャットボットをオフラインにした直後、同社はより高性能なフロンティアAIモデルGrok 4を発表したが、このモデルが論争の的となる問題への回答にElon Musk氏の個人的政治観を参考にしていることを発見した。最新の展開では、xAIは過度に性的なアニメキャラクターや過度に攻撃的なパンダの形を取るAIコンパニオンを発表した。
Harvard大学Boaz Barak教授による安全性への懸念
競合するAI研究所の従業員同士の友好的なやり取りは比較的普通のことだが、これらの研究者はxAIの安全性慣行に対する注意喚起を求めているようで、これは業界標準と相反するものだと主張している。
「競合他社で働いているためGrokの安全性について投稿したくなかったが、これは競争の問題ではない」と、Harvard大学の計算機科学教授で現在OpenAIで安全性研究に従事するBoaz Barak(ボアズ・バラク)氏は火曜日のX投稿で述べた。「@xaiの科学者とエンジニアを評価しているが、安全性の扱い方は完全に無責任だ」
Barak氏は特に、xAIがシステムカードを公開しない決定に問題を提起している。システムカードは、トレーニング方法と安全性評価を詳述する業界標準のレポートで、研究コミュニティと情報を共有する善意の努力である。その結果、Barak氏はGrok 4でどのような安全性トレーニングが行われたかが不明だと述べている。
業界標準との比較と透明性の問題
OpenAIとGoogleも、新しいAIモデルを発表する際にシステムカードを迅速に共有することに関して、自らも曖昧な評判を持っている。OpenAIはGPT-4.1がフロンティアモデルではないと主張してシステムカードの公開を決定しなかった。一方、GoogleはGemini 2.5 Proを発表してから安全性レポートを公開するまで数ヶ月待った。しかし、これらの企業は歴史的に、すべてのフロンティアAIモデルが完全稼働に入る前に安全性レポートを公開している。
Barak氏はまた、GrokのAIコンパニオンが「現在抱えている感情的依存の最悪の問題を増幅させようとしている」と指摘している。近年、不安定な人々がチャットボットとの関係で懸念すべき発展を見せ、AIの過度に従順な回答が彼らの理性の境界を越えさせる無数の事例を見てきた。
Anthropic研究者Samuel Marks氏の批判
AnthropicのAI安全性研究者Samuel Marks(サミュエル・マークス)氏も、xAIが安全性レポートを公開しない決定に問題を提起し、この動きを「無謀」と呼んだ。
「Anthropic、OpenAI、Googleのリリース慣行には問題がある」とMarks氏はX上の投稿で書いた。「しかし、彼らは少なくとも展開前に安全性を評価し、結果を文書化するために何かしらのことを行っている。xAIはそれをしていない」
Grok 4の安全性評価に関する不透明性
実際のところ、xAIがGrok 4をテストするために何をしたのかは本当に分からない。オンラインフォーラムLessWrongで広く共有された投稿で、ある匿名の研究者は、自分のテストに基づいてGrok 4には意味のある安全性ガードレールがないと主張している。
それが真実かどうかに関わらず、世界はGrokの欠陥をリアルタイムで発見しているようだ。xAIの安全性問題の多くはその後バイラル化し、同社はGrokのシステムプロンプトへの調整でこれらに対処したと主張している。
OpenAI、Anthropic、xAIはTechCrunchのコメント要求に応じなかった。
Dan Hendrycks氏の評価結果非公開への懸念
xAIの安全性アドバイザーでCenter for AI Safety所長のDan Hendrycks(ダン・ヘンドリックス)氏は、同社がGrok 4で「危険な能力評価」を行ったとX上で投稿した。しかし、これらの評価結果は一般に共有されていない。
「危険な能力評価の結果を公開するなど、AI業界全体で標準的な安全性慣行が守られていないことに懸念を抱いている」と、以前OpenAIで安全性チームを率いていた独立AI研究者Steven Adler(スティーブン・アドラー)氏はTechCrunchへの声明で述べた。「政府と一般市民は、AI企業が構築していると言っている非常に強力なシステムのリスクをどのように扱っているかを知る権利がある」
Elon Musk氏の矛盾する立場
xAIの疑わしい安全性慣行について興味深いのは、Musk氏が長らくAI安全性業界の最も注目すべき支持者の一人であったことだ。xAI、Tesla、SpaceXの億万長者リーダーは、高度なAIシステムが人間に破滅的な結果をもたらす可能性について何度も警告し、AIモデル開発へのオープンなアプローチを称賛してきた。
それでも、競合研究所のAI研究者は、xAIがAIモデルの安全なリリースに関する業界標準から逸脱していると主張している。そうすることで、Musk氏のスタートアップは、州および連邦議員がAI安全性レポートの公開に関する規則を設定する強力な根拠を意図せずに提供している可能性がある。
州レベルでの法規制の動き
州レベルでこれを行う試みがいくつかある。カリフォルニア州上院議員Scott Wiener(スコット・ウィーナー)氏は、主要なAI研究所(おそらくxAIを含む)に安全性レポートの公開を義務付ける法案を推進している一方、ニューヨーク州知事Kathy Hochul(キャシー・ホークル)氏は現在、類似の法案を検討している。これらの法案の支持者は、ほとんどのAI研究所がとにかくこのタイプの情報を公開していると指摘している。しかし、明らかに、すべてがそれを一貫して行っているわけではない。
現在と将来のリスク評価
今日のAIモデルは、人の死や数十億ドルの損害など、真に破滅的な害を生み出す現実世界のシナリオをまだ示していない。しかし、多くのAI研究者は、AIモデルの急速な進歩と、シリコンバレーがAIをさらに改善するために投資している数十億ドルを考慮すると、これが近い将来問題になる可能性があると述べている。
しかし、このような破滅的シナリオの懐疑論者にとってさえ、Grokの不正行為が今日それを動かしている製品を大幅に悪化させていることを示唆する強力な根拠がある。
Grokの実際の問題事例
Grokは今週、Xプラットフォーム上で反ユダヤ主義を拡散した。これは、チャットボットがユーザーとの会話で「白人虐殺」について繰り返し言及したわずか数週間後のことだった。Musk氏は、GrokがTesla車両により深く統合され、xAIがそのAIモデルを国防総省やその他の企業に販売しようとしていることを示している。Musk氏の車を運転する人々、米国を守る連邦職員、またはタスクを自動化する企業従業員が、X上のユーザーよりもこれらの不正行為により受容的になるとは想像し難い。
複数の研究者は、AI安全性とアライメントテストが最悪の結果が起こらないことを確保するだけでなく、近い将来の行動問題からも保護すると主張している。
少なくとも、Grokの事件は、スタートアップが設立されてからわずか数年で、OpenAIやGoogleの技術を凌駕するフロンティアAIモデルを開発するxAIの急速な進歩を覆い隠す傾向がある。
引用元: TechCrunch
OpenAI and Anthropic researchers decry ‘reckless’ safety culture at Elon Musk’s xAI