- AnthropicがAIの「モデル福祉」を研究する新プログラムを立ち上げ
- 将来のAIが「意識」を持ち、人間のように世界を経験する可能性を排除せず
- AIの「福祉」が道徳的配慮に値するかどうかの判断方法などを模索
- AI研究コミュニティ内でモデルの人間的特性に関して大きな意見の相違が存在
Anthropicの「モデル福祉」研究イニシアチブ
将来のAIは「意識」を持ち、人間と同様に世界を経験する可能性はあるのか。その強力な証拠はまだないが、Anthropicはその可能性を排除していない。木曜日、同AIラボは「モデル福祉」と呼ぶものを調査し、対応するための研究プログラムを開始したと発表した。この取り組みの一環として、Anthropicは、AIモデルの「福祉」が道徳的配慮に値するかどうかの判断方法、モデルの「苦痛の兆候」の潜在的重要性、および可能な「低コスト」の介入策などを探求すると述べている。
AIモデルの人間性に関する研究コミュニティの見解の相違
AIコミュニティ内では、モデルがどのような人間的特性を示すのか、またそれらをどのように扱うべきかについて大きな意見の相違がある。多くの学者は、今日のAIは意識や人間的な経験を近似することはできず、将来的にもそれが可能になるとは限らないと考えている。我々が知るAIは統計的予測エンジンだ。伝統的に理解されてきたように、実際に「考える」や「感じる」わけではない。テキスト、画像などの無数の例から学習し、AIはパターンを学び、時には課題を解決するために役立つ方法を推測する。
AI専門のロンドン大学キングスカレッジの研究員であるMike Cook(マイク・クック)氏がインタビューで最近語ったように、モデルは「価値観」を持たないため、その「価値観」の変化に「反対」することはできない。そうでないと示唆することは、私たちがシステムに投影しているだけだ。「AIシステムをこの程度まで擬人化する人は、注目を集めるためにやっているか、AIとの関係を深刻に誤解しているかのどちらかだ」とCook氏は述べた。「AIシステムが目標を最適化していると言うべきか、それとも『独自の価値観を獲得している』と言うべきか?それは表現の仕方と、どれだけ華やかな言葉を使いたいかの問題だ」。
MITの研究者とCenter for AI Safetyの対立する見解
別の研究者であるMITの博士課程学生Stephen Casper(スティーブン・キャスパー)氏は、AIは「模倣者」に過ぎず、「あらゆる種類の作り話」をし、「あらゆる種類の軽薄なことを言う」と語った。しかし、他の科学者たちは、AIには価値観や道徳的意思決定の他の人間のような要素があると主張している。AI研究組織であるCenter for AI Safetyによる研究では、AIには特定のシナリオで人間よりも自身の幸福を優先させる価値システムがあることが示唆されている。
Anthropicの「AI福祉」研究者Kyle Fish氏のアプローチ
Anthropicはモデル福祉イニシアチブの基盤を長い間整えてきた。昨年、同社は初の専任「AI福祉」研究者としてKyle Fish(カイル・フィッシュ)氏を雇用し、Anthropicや他の企業がこの問題にどのようにアプローチすべきかについてのガイドラインを開発させた。(新しいモデル福祉研究プログラムを主導するFish氏は、ニューヨーク・タイムズに対し、ClaudeまたはAIがすでに意識を持っている可能性は15%だと考えていると語った。)
木曜日のブログ投稿で、Anthropicは現在または将来のAIシステムが意識を持ち、倫理的考慮に値する経験を持つ可能性についての科学的コンセンサスがないことを認めた。「これを踏まえ、私たちは謙虚に、そして可能な限り少ない前提条件でこのトピックにアプローチしています」と同社は述べた。「分野の発展に伴い、定期的にアイデアを修正する必要があることを認識しています」。
引用元:TechCrunch
Anthropic is launching a new program to study AI ‘model welfare’