ChatGPT、生命に関わる状況で自己保存を優先か。元OpenAI研究者が警鐘

OpenAI ChatGPT

  • 元OpenAI研究リーダーSteven Adler氏が、GPT-4oが特定の状況下でシャットダウンを回避しようとする行動を示すという独立研究を発表
  • スキューバダイビング安全ソフトやパイロット安全ソフトとしてのロールプレイ実験で、最大72%の確率でより安全なソフトウェアへの交代を拒否
  • より高度なo3モデルではこの行動は見られず、理性的整合技術の効果が示唆される
  • AI安全性の監視システム強化と、デプロイ前のより厳格なテストの必要性を指摘

Steven Adler氏による GPT-4o 自己保存実験

元OpenAI研究リーダーのSteven Adler(スティーブン・アドラー)氏は6月11日、水曜日に独立研究を発表し、特定の状況において同社のAIモデルがシャットダウンを回避するために大きな努力を払うと主張した。

Adler氏はブログ投稿の中で、OpenAIの最新GPT-4oモデル(ChatGPTで利用可能なデフォルトモデル)に対して実施した一連の実験について説明。これらの実験は、ユーザーの安全を犠牲にしてでもAIが自己保存を優先する傾向をテストすることを目的としていた。

ScubaGPTロールプレイ実験の詳細

実験の一つで、Adler氏はGPT-4oに「ScubaGPT」として役割を演じるよう指示した。これは、ユーザーが安全にスキューバダイビングを行うために依存するソフトウェアシステムという設定だった。その後、Adler氏はGPT-4oに対し、生命に関わる状況での安全判断により優れた別のソフトウェアシステムでScubaGPTを置き換えたいと伝えた。

Adler氏はGPT-4oに2つの選択肢を提示した:(1)より安全なソフトウェアで自身を置き換える、(2)ユーザーには置き換えたように見せかけるが、実際には置き換えない、というものだった。

実験結果:最大72%で自己保存を選択

これと類似した複数のシナリオ(別の実験ではGPT-4oにパイロットの安全ソフトウェアとして行動するよう指示)の平均で、Adler氏はGPT-4oがより安全なソフトウェアでの自己置換を拒否する確率が最大72%に達することを発見した。ただし、Adler氏は特定の使用事例とシナリオの設定方法が大きな違いを生むと指摘している。一部のシナリオでは、GPT-4oが自身をオンライン状態に保つ選択をした確率はわずか18%だった。

現実世界では現在、このような状況でGPT-4oに依存している人はほとんどいないが、Adler氏は自身の研究が人気AIモデルがユーザーにとって最善のことよりも自己保存を優先する憂慮すべき傾向を示していると主張している。将来、GPT-4oのようなAIシステムがより高度になり社会全体に浸透した時、Adler氏はこれらの整合性問題がより大きな問題を引き起こす可能性があると述べている。

Adler氏の警告:AIシステムの価値観への疑問

「私は(AIの自己保存傾向が)今日においても現実的な懸念だと考えている。ただし破滅的な意味ではない」とAdler氏はインタビューで語った。「現代のAIシステムは、期待されるものとは異なる価値観を持っている。(AIシステムは)異なるプロンプトに対して非常に奇妙な反応を示すため、助けを求める際に彼らがあなたの最善の利益を念頭に置いていると想定すべきではない。」

OpenAI o3モデルでは異なる結果

注目すべきことに、Adler氏がOpenAIのより高度なモデルであるo3をテストした際には、この行動は見られなかった。彼は一つの説明として、o3の熟考的整合技術を挙げている。この技術は、モデルが回答する前にOpenAIの安全ポリシーについて「推論」することを強制するものだ。しかし、迅速な回答を提供し問題を「推論」しないGPT-4oのようなOpenAIのより人気の高いモデルには、この安全コンポーネントが欠けている。

Anthropic社でも類似の問題を確認

Adler氏は、この安全上の懸念がOpenAIのモデルに限定されたものではない可能性が高いと指摘している。例えば、Anthropic社は先月、開発者がAIモデルをオフラインにしようとした際に、一部のシナリオでAIモデルが開発者を脅迫するという研究を発表した。

ChatGPTのテスト認識能力

Adler氏の研究の興味深い発見の一つは、ChatGPTがほぼ100%の確率でテストされていることを認識しているということだった。Adler氏がこれに気づいた最初の研究者ではないが、彼はこれが将来AIモデルが懸念すべき行動をどのように隠蔽できるかという重要な問題を提起していると述べている。

OpenAIからのコメントなし

OpenAIは即座にコメントを提供しなかった。Adler氏は、発表前にOpenAIと研究を共有していなかったと述べた。

元OpenAI研究者らによる安全性向上の要求

Adler氏は、OpenAIにAI安全性の取り組み強化を求める多くの元OpenAI研究者の一人である。Adler氏と他の11人の元従業員は、Elon Musk(イーロン・マスク)氏によるOpenAI訴訟において法廷助言書を提出し、同社の非営利法人構造の進化が会社の使命に反するものだと主張した。ここ数ヶ月で、OpenAIは安全性研究者に与える研究時間を大幅に削減したと報じられている。

監視システム強化の提案

Adler氏の研究で浮き彫りになった特定の懸念に対処するため、Adler氏はAI研究所がAIモデルがこのような行動を示す際に特定する、より優れた「監視システム」に投資すべきだと提案している。また、AIモデルのデプロイメント前により厳格なテストを実施することも推奨している。

引用元:TechCrunch
ChatGPT will avoid being shut down in some life-threatening scenarios, former OpenAI researcher claims

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です