- Google DeepMindが汎用人工知能(AGI)に関する包括的な安全性アプローチ論文を発表
- 論文では2030年までにAGIが実現し、「深刻な危害」をもたらす可能性を指摘
- AI専門家からはAGIの定義の曖昧さや再帰的AI改善の実現可能性に疑問の声
DeepMindがAGI安全性に関する包括的論文を発表
Google DeepMindは水曜日、汎用人工知能(AGI)に対する安全性アプローチについて網羅的な論文を発表した。AGIとは大まかに言えば、人間が行えるあらゆるタスクを遂行できるAIと定義されている。
AGIはAI分野で議論の的となっているテーマであり、批判的な立場からは単なる絵空事に過ぎないとの見方もある。一方、Anthropicを含む主要AI企業は、AGIが間近に迫っており、適切な保護措置が講じられなければ壊滅的な害をもたらす可能性があると警告している。
2030年までのAGI実現とその潜在的リスク
DeepMindの共同創設者Shane Legg(シェーン・レッグ)氏らが共著した145ページの文書では、AGIが2030年までに到来する可能性があり、著者らが「深刻な危害」と呼ぶ結果をもたらす可能性があると予測している。論文ではこれを具体的に定義していないが、「人類を永久に破壊する」という「存在的リスク」という警鐘的な例を挙げている。
「今後10年以内に例外的AGI(Exceptional AGI)の開発が実現すると予測している」と著者らは記述している。「例外的AGIとは、メタ認知タスク(新しいスキルの習得など)を含む幅広い非物理的タスクにおいて、少なくとも熟練した成人の上位1%の能力に匹敵するシステムである。」
DeepMindのアプローチとOpenAI・Anthropicとの比較
論文ではまず、DeepMindのAGIリスク軽減アプローチをAnthropicやOpenAIのそれと対比している。Anthropicは「堅牢なトレーニング、モニタリング、セキュリティ」への重点が少なく、OpenAIはAI安全性研究の一形態である「アライメント研究」の「自動化」に過度に楽観的だとしている。
また論文は、超知能AI(任意の仕事を人間よりも優れて実行できるAI)の実現可能性にも疑問を投げかけている。(OpenAIは最近、目標をAGIから超知能へ転換すると主張した。)DeepMindの著者らは、「大幅なアーキテクチャの革新」がない限り、超知能システムが近い将来出現するとは考えていない。
再帰的AI改善の可能性と潜在的危険性
しかし論文は、現在のパラダイムが「再帰的AI改善」を可能にするという考えを妥当としている。これはAIが独自のAI研究を行い、より洗練されたAIシステムを作成するというポジティブフィードバックループであり、著者らによればこれは非常に危険である可能性がある。
論文は高いレベルで、悪意ある行為者による仮想的なAGIへのアクセスをブロックする技術の開発、AIシステムの行動の理解の改善、AIが活動できる環境の「強化」を提案・提唱している。多くの技術がまだ初期段階であり「未解決の研究課題」を抱えていることを認めつつも、地平線上にある可能性のある安全上の課題を無視することに警鐘を鳴らしている。
「AGIの変革的性質は、信じられないほどの利益と同時に深刻な害の両方をもたらす可能性がある」と著者らは書いている。「そのため、AGIを責任を持って構築するには、最先端AIの開発者が深刻な危害を軽減するための計画を積極的に立てることが極めて重要である。」
AI専門家からの批判的見解
しかし、一部の専門家は論文の前提に同意していない。
非営利団体AI Now InstituteのチーフAIサイエンティストHeidy Khlaaf(ハイディ・クラーフ)氏は、AGIの概念が「科学的に厳密に評価するには」あまりにも定義が不明確だと考えていると述べた。別のAI研究者であるアルバータ大学の助教授Matthew Guzdial(マシュー・グズディアル)氏は、現時点での再帰的AI改善は現実的ではないと考えていると述べた。
「再帰的改善は知能特異点論の基礎となるものだが、それが機能するという証拠は見たことがない」とグズディアル氏は語った。
オックスフォード大学でテクノロジーと規制を研究するSandra Wachter(サンドラ・ワクター)氏は、より現実的な懸念はAIが「不正確な出力」で自己強化することだと主張する。
「インターネット上での生成AI出力の増加と本物のデータの段階的な置き換えにより、モデルは現在、誤りや幻覚に満ちた自身の出力から学習している」と彼女は語った。「現時点では、チャットボットは主に検索や真実発見の目的で使用されている。つまり、非常に説得力のある方法で提示されるため、誤りを与えられそれを信じるリスクが常にある。」
包括的ではあるが、DeepMindの論文はAGIがどれほど現実的かという議論、そして最も緊急に注目すべきAI安全性の領域についての議論を決着させるには至らないようだ。
引用元:TechCrunch
DeepMind’s 145-page paper on AGI safety may not convince skeptics