AGI論争:Anthropic、OpenAIはAGI実現に楽観的、Google、Hugging Faceは慎重な立場

AI ART

  • AnthropicのCEO Dario Amodei氏とOpenAIのCEO Sam Altman氏はAGI実現に楽観的な見方を示す一方、Hugging FaceのThomas Wolf氏やGoogle DeepMindのDemis Hassabis氏などは慎重な立場
  • 創造性と主観性がAGI実現への重要な課題として浮上
  • 「オープンエンドネス」と呼ばれるAI研究分野が注目を集め始める

AIリーダーたちの意見が二分

サンフランシスコでのビジネスリーダーたちとの夕食会で、現在のAIが人間レベルの知能(AGI)やそれ以上に到達する可能性について質問したところ、場の空気が一変した。この話題は想像以上に議論を呼ぶものである。

2025年現在、ChatGPTやGeminiなどのチャットボットを支える大規模言語モデル(LLM)が近い将来に人間レベルあるいは超人的知能に到達する可能性について、楽観的な見解を示すテック企業CEOは少なくない。これらの経営者たちは、高度なAIが社会全体に広く分散した利益をもたらすと主張している。

例えば、AnthropicのCEO Dario Amodei(ダリオ・アモデイ)氏はエッセイで、例外的に強力なAIが早ければ2026年にも登場し、「ほとんどの関連分野でノーベル賞受賞者より賢く」なる可能性があると述べている。一方、OpenAIのCEO Sam Altman(サム・アルトマン)氏は最近、同社が「超知性的な」AIを構築する方法を知っていると主張し、それが「科学的発見を大幅に加速する」可能性があると予測した。

しかし、こうした楽観的な主張に納得していない人々もいる。

LLMによるAGI実現に懐疑的な声

他のAIリーダーたちは、何らかの革新的なイノベーションがない限り、現在のLLMがAGI、ましてや超知性に到達できるとは考えていない。これらのリーダーたちは歴史的に低いプロファイルを保っていたが、最近になって発言する人が増えてきた。

今月発表された記事で、Hugging Faceの共同創設者兼最高科学責任者であるThomas Wolf(トーマス・ウルフ)氏は、Amodei氏のビジョンの一部を「せいぜい願望的思考」と呼んだ。統計物理学と量子物理学のPhD研究に基づいて、Wolf氏はノーベル賞レベルのブレークスルーは既知の質問に答えること(AIが得意とすること)からではなく、誰も考えつかなかった質問を投げかけることから生まれると考えている。

Wolf氏の意見では、現在のLLMはこの任務を遂行する能力がない。

「『アインシュタインモデル』が世に出るのを見てみたいが、そこに到達する方法の詳細に踏み込む必要がある」とWolf氏は語った。「そこから興味深いことが始まるのだ」

Wolf氏がこの記事を書いたのは、AGIについて過剰な期待がありすぎて、実際にそこに到達する方法についての真剣な評価が不足していると感じたからだという。現状では、AIが近い将来に世界を変革する可能性は十分あるが、人間レベルの知能や超知性には達しない可能性が現実的にあると彼は考えている。

「反テクノロジー」のレッテルと現実的な見方

AI業界の多くはAGIの可能性に魅了されている。それが不可能だと考える人々は、しばしば「反テクノロジー」とレッテルを貼られるか、あるいは単に苦々しく誤った情報を持っていると見なされがちだ。

Wolf氏のこの見解に対して悲観主義者とみなす人もいるかもしれないが、Wolf氏は自分自身を「情報に基づいた楽観主義者」—現実感覚を失うことなくAIを前進させたいと考える人間—と考えている。確かに、彼はこのテクノロジーについて保守的な予測を持つ唯一のAIリーダーではない。

Google DeepMindのCEO Demis Hassabis(デミス・ハサビス)氏は、自身の意見として、業界がAGIの開発まで最大10年かかる可能性があると従業員に伝えたと報じられており、AIが今日できないタスクが多くあることを指摘している。MetaのChief AIサイエンティストYann LeCun(ヤン・ルカン)氏もLLMの可能性について疑念を表明している。火曜日のNvidia GTCでの講演で、LeCun氏はLLMがAGIを達成できるという考えは「ナンセンス」であり、超知性の基盤となる全く新しいアーキテクチャが必要だと主張した。

創造性と主観性の重要性

OpenAIの元主任研究員Kenneth Stanley(ケネス・スタンレー)氏は、現在のモデルを使って高度なAIを構築する方法の詳細を掘り下げている人物の一人だ。彼は現在、自動化されたラボを通じて科学的イノベーションを引き出すために2億ドル(約300億円)のベンチャーキャピタルを調達した新興企業Lila Sciencesのエグゼクティブを務めている。

Stanley氏は、AIモデルから独創的で創造的なアイデアを引き出すAI研究の一分野である「オープンエンドネス」に日々取り組んでいる。Lila Sciencesは、科学的プロセス全体を自動化できるAIモデルの作成を目指しており、その第一歩として、最終的にブレークスルーにつながる優れた質問や仮説に到達することを目標としている。

「私もWolf氏のエッセイを書きたかったくらいだ。それは本当に私の気持ちを反映している」とStanley氏は述べた。「彼が気づいたのは、非常に知識や技術があることが、必ずしも本当に独創的なアイデアを持つことにつながるわけではないということだ」

Stanley氏は創造性がAGIへの道筋における重要なステップだと考えているが、「創造的な」AIモデルを構築することは言うは易く行うは難しと指摘する。

Amodei氏のような楽観主義者は、AIの「推論」モデル(より多くの計算能力を使って自分の作業を事実確認し、特定の質問に一貫して正しく答えるもの)などの手法を、AGIがそれほど遠くないという証拠として指摘している。しかし、独創的なアイデアや質問を思いつくには異なる種類の知性が必要かもしれないとStanley氏は言う。

「考えてみれば、推論は創造性とほぼ対極にある」と彼は付け加えた。「推論モデルは『問題の目標はこれだ、その目標に向かって直接進もう』と言うが、それは基本的に機会主義的になることや目標の外側にあるものを見ることを妨げ、その結果、多くの創造的なアイデアを持つために分岐する可能性を阻害する」

AIの未来と創造性の課題

本当に知的なAIモデルを設計するには、有望な新しいアイデアに対する人間の主観的な感覚をアルゴリズム的に複製する必要があるとStanley氏は提案している。今日のAIモデルは、数学やプログラミングなど、明確な答えのある学術分野ではかなり良い性能を発揮している。しかし、Stanley氏は、必ずしも「正しい」答えがあるとは限らない創造性を必要とするより主観的なタスクについては、AIモデルの設計がはるかに難しいと指摘している。

「科学では主観性を避ける傾向がある—その言葉はほとんど有毒だ」とStanley氏は述べた。「しかし、アルゴリズム的に主観性を扱うことを妨げるものは何もない。それはデータストリームの一部に過ぎない」

Stanley氏は、Lila Sciences、Google DeepMind、AIスタートアップのSakanaに専用の研究所ができたことで、オープンエンドネスの分野が注目を集めるようになったことを嬉しく思っていると語る。AIにおける創造性について語る人々が増えているのを目にするようになったが、まだやるべきことはたくさんあると彼は考えている。

Wolf氏とLeCun氏もおそらく同意するだろう。彼らはAIリアリストと呼ぶべき存在だ:AGIと超知性にその実現可能性について真剣で地に足のついた疑問を持って取り組むAIリーダーたちである。彼らの目標は、AI分野の進歩を否定することではない。むしろ、今日のAIモデルとAGI—そして超知性—の間に立ちはだかるものについての大局的な会話を始め、それらの障壁に取り組むことだ。

引用元:TechCrunch
The AI leaders bringing the AGI debate down to Earth

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です