DeepMind AI、国際数学オリンピック金メダリストより優れたパフォーマンスを発揮と主張

DeepMind Google

  • GoogleのAI研究部門DeepMindが開発したAlphaGeometry2が、国際数学オリンピック(IMO)の過去25年間の幾何学問題の84%を解決することに成功。
  • AIシステムは、Geminiファミリーの言語モデルとシンボリックエンジンを組み合わせたハイブリッドアプローチを採用。
  • 幾何学的推論能力の向上は、将来の汎用AI開発における重要な要素になる可能性を示唆。

AlphaGeometry2の画期的な成果

GoogleのAI研究部門DeepMindが開発した新しいAIシステムが、国際数学オリンピック(IMO)の幾何学問題解決において、金メダリストの平均的な成績を上回る結果を示した。AlphaGeometry2と名付けられたこのシステムは、2024年1月にリリースされたAlphaGeometryの改良版である。研究チームによると、過去25年間のIMOの幾何学問題の84%を解決する能力を持つという。

DeepMindが高校レベルの数学コンテストに注目する理由は、より高度なAIの開発における重要な要素として、特にユークリッド幾何学の問題解決方法の新しい発見にあると考えているためだ。2024年夏には、AlphaGeometry2と数学的形式推論用AIモデルAlphaProofを組み合わせたシステムが、2024年IMOの6問中4問を解決することに成功している。

AlphaGeometry2のシステム構成と機能

このシステムは、GoogleのGeminiファミリーの言語モデルと「シンボリックエンジン」を中核要素としている。Geminiモデルは、数学的規則を用いて解を導き出すシンボリックエンジンを支援し、幾何学定理の実行可能な証明にたどり着くよう補助する。システムは並列で複数の解法を探索し、有用な発見を共通の知識ベースに格納する仕組みを持つ。

DeepMindは3億件以上の定理と証明を生成し、独自の合成データでAlphaGeometry2の言語モデルを訓練した。2000年から2024年までの過去25年間のIMO大会から選ばれた45の幾何学問題を50問に拡張し、その中で42問を解決。これは金メダリストの平均スコアである40.9を上回る結果となった。

システムの限界と今後の展望

可変数の点を含む問題や非線形方程式、不等式を解くことができないなど、技術的な制約も存在する。また、IMOの専門家によって選ばれた未出題の29問のうち、20問しか解けなかったという課題も残されている。しかし、Carnegie Mellon UniversityのVince Conitzer(ヴィンス・コニッツァー)氏は、これらのシステムが今後大きな影響力を持つ可能性を指摘している。

引用元:TechCrunch
DeepMind claims its AI performs better than International Mathematical Olympiad gold medalists

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です