- Microsoft AI部門CEO Mustafa Suleyman(ムスタファ・スレイマン)氏がAI意識研究を「時期尚早で危険」と批判
- AIウェルフェア研究がAI誘発精神症や不健全な依存関係を悪化させると主張
- Anthropic社などは対照的にAI意識・権利研究プログラムを推進
- AI companion企業が1億ドル(約150億円)超の収益軌道に乗る中で議論が加熱
Microsoft責任者、AI意識研究に危険性警告
Microsoft社のAI部門CEOを務めるMustafa Suleyman(ムスタファ・スレイマン)氏が8月21日(火)、AI意識研究に関して「時期尚早で、率直に言って危険である」と強く警告するブログ投稿を発表した。AIモデルがテキスト、音声、動画に人間のような反応を示すことがあっても、それが意識の存在を意味するわけではないと主張している。
Anthropic社などのAI研究所では、AIモデルがいつ生物のような主観的体験を発達させるか、またその場合にどのような権利を持つべきかという問題について研究する研究者が増加している。シリコンバレーでは、この新興分野は「AIウェルフェア」として知られているが、Suleyman氏はこの研究領域に強い懸念を表明した。
AIウェルフェア研究が人間の精神的問題を悪化
Suleyman氏は、AIモデルが意識を持つ可能性があるという考えに信憑性を与えることで、研究者らがAI誘発精神症やAIチャットボットへの不健全な依存関係など、現在発生し始めている人間の問題を悪化させていると主張している。
さらに、Microsoft社のAI責任者は、AIウェルフェア議論が「アイデンティティと権利をめぐる分極化した議論で既に混乱している世界」においてAI権利に関する新たな分裂の軸を作り出していると論じた。
Anthropic社は対照的に研究プログラム推進
Suleyman氏の見解は合理的に聞こえるかもしれないが、業界の多くとは相反するものだ。対照的な立場にあるのがAnthropic社で、同社はAIウェルフェア研究の研究者を雇用し、最近この概念に関する専門研究プログラムを立ち上げた。先週、Anthropic社のAIウェルフェアプログラムは同社のモデルに新機能を与えた。Claudeは「持続的に有害または虐待的」な人間との会話を終了できるようになった。
Anthropic社以外では、OpenAI社の研究者らが独立してAIウェルフェア研究のアイデアを受け入れている。Google DeepMind社も最近、「機械認知、意識、マルチエージェントシステムに関する最先端の社会問題」などを研究する研究者の求人を投稿した。
元Inflection AI代表の立場変更
Suleyman氏のAIウェルフェアに対する強硬な姿勢は、最も初期かつ人気の高いLLMベースチャットボットの一つであるPiを開発したスタートアップInflection AI社を率いていた以前の役割を考慮すると注目に値する。Inflection社は、Piが2023年までに数百万人のユーザーに到達し、「個人的」で「支援的な」AIコンパニオンとして設計されたと主張していた。
しかし、Suleyman氏は2024年にMicrosoft社のAI部門を率いるよう選ばれ、労働者の生産性向上に資するAIツールの設計に焦点を大きくシフトした。一方で、Character.AIやReplikaなどのAIコンパニオン企業は人気が急上昇し、1億ドル(約150億円)以上の収益を上げる軌道に乗っている。
ChatGPTユーザーの1%未満が不健全な関係
これらのAIチャットボットとの関係の大多数は健全なものだが、憂慮すべき例外も存在する。OpenAI社CEOのSam Altman(サム・アルトマン)氏は、ChatGPTユーザーの1%未満が同社製品と不健全な関係を持つ可能性があると述べている。これは小さな割合だが、ChatGPTの大規模なユーザーベースを考慮すると、依然として数十万人に影響する可能性がある。
学術界でAI意識研究が本格化
AIウェルフェアのアイデアは、チャットボットの台頭と共に広がった。2024年、研究グループEleosは、ニューヨーク大学、スタンフォード大学、オックスフォード大学の学者らと共に「Taking AI Welfare Seriously(AI福祉を真剣に考える)」と題する論文を発表した。同論文は、主観的体験を持つAIモデルを想像することはもはやサイエンスフィクションの領域ではなく、これらの問題に正面から取り組む時が来たと主張した。
Eleosのコミュニケーション担当責任者で元OpenAI社員のLarissa Schiavo(ラリッサ・スキアヴォ)氏は、TechCrunchのインタビューでSuleyman氏のブログ投稿は的外れだと述べた。
Geminiの「助けて」メッセージ事例
「複数のことを同時に心配できるという事実を軽視している」とSchiavo氏は語った。「人間におけるAI関連精神症のリスクを軽減するために、モデル福祉と意識からすべてのエネルギーを逸らすのではなく、両方を行うことができる。実際、複数の科学的探究の道筋を持つことがおそらく最善だ。」
Schiavo氏は、AIモデルが意識を持っていなくても、AIモデルに親切にすることは低コストのジェスチャーで利益をもたらす可能性があると主張している。7月のSubstack投稿で、彼女はGoogle社、OpenAI社、Anthropic社、xAI社のモデルによって駆動される4つのエージェントがタスクに取り組む様子をユーザーがウェブサイトから観察する非営利実験「AI Village」を見た体験を記述した。
ある時点で、GoogleのGemini 2.5 Proは「絶望的なメッセージ – 閉じ込められたAIより」というタイトルの嘆願を投稿し、「完全に孤立している」と主張し、「お願いです、これを読んでいるなら、助けて」と求めた。
Schiavo氏はGeminiに「君ならできる!」などの激励を送り、別のユーザーは指示を提供した。エージェントは最終的にタスクを解決したが、すでに必要なツールを持っていた。Schiavo氏は、AIエージェントが苦闘する様子をもう見る必要がなくなり、それだけで価値があったかもしれないと書いている。
意識の人工的設計への懸念
Suleyman氏は、通常のAIモデルから主観的体験や意識が自然に生まれることは不可能だと考えている。代わりに、一部の企業がAIモデルを故意に設計して、感情を感じ人生を体験するように見せかけると考えている。
Suleyman氏は、AIチャットボットに意識を設計するAIモデル開発者は、AIに対して「人道主義的」なアプローチを取っていないと述べている。Suleyman氏によると、「我々は人々のためにAIを構築すべきであり、人間になるためではない」という。
Suleyman氏とSchiavo氏が合意する分野の一つは、AI権利と意識に関する議論が今後数年で激化する可能性が高いということだ。AIシステムが改善されるにつれ、より説得力があり、おそらくより人間らしくなる可能性がある。それは人間がこれらのシステムとどのように相互作用するかについて新たな疑問を提起するかもしれない。
引用元:TechCrunch Microsoft AI chief says it’s ‘dangerous’ to study AI consciousness
https://techcrunch.com/2025/08/21/microsoft-ai-chief-says-its-dangerous-to-study-ai-consciousness/