最終更新日:2024/01/19
DeepMindが開発したAIシステムが、数学オリンピックの金メダリストに匹敵する能力で幾何学の問題を解くことが、Nature誌で発表されました。
AIシステムの名称は『AlphaGeometry』で、言語モデルとルールベースを組み合わせて構築されたとのことです。
“Solving olympiad geometry without human demonstrations“より
※本記事はAIDBのXポストを転載したもので、研究の概要を手早く把握するためのニュース記事です。
AIスキル人材と企業をつなぐマッチングサービス「AIDB HR」を開始しました!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。
『AlphaGeometry』の性能
- 数学オリンピックの幾何学問題を25/30問を解いた
- 人間が理解できる解答が提供された
- なお、より広範なテスト228/231問を解いた
→金メダリスト(平均25.9)とほぼ同等レベルだった
アーキテクチャ
- 言語モデルとルールベースを組み合わせた
- 1億個の定理証明の合成データで訓練された
- Transformerで定理からの証明生成を学習した
- 生成した解答候補から最上位が選択される仕組み
なお、本実験はユークリッド平面幾何学の問題に特化しているため、他の分野には適用できない場合も考えられることに注意が必要です。
また、人間のメダリストとの単純な比較はできない見方もあります。実際の数学オリンピックでは計算機を使用しないなどの制約が多いためです。
参照情報
Solving olympiad geometry without human demonstrations
https://www.nature.com/articles/s41586-023-06747-5
機関:Google DeepMind
著者:Trieu H. Trinh, Yuhuai Wu, Quoc V. Le, He He, Thang Luong
公式記事:https://deepmind.google/discover/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/
GitHub:https://github.com/google-deepmind/alphageometry
関連研究
- DeepMindの『GNoME』が「人間の直感を超えた220万の材料を発見し」うち736は既に人間が実験室で再現したとの報告、Nature誌
- 算術タスクでGPT-4を圧倒的に上回るコンパクトなモデル『MathGLM』登場。やはりステップ・バイ・ステップが重要
- Geminiの高い推論能力を活かして、過去最高水準のプログラミングAI『AlphaCode 2』も誕生したとの報告
- OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。