推論能力をさらに強める戦略『AoT(Algorithm of Thoughts)』によって、LLMが「直感」に似た能力を示すようになったとの実験結果が報告されました。
マイクロソフトの研究者などによる発表です。
○ Bilgehan Sel et al. Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models
推論タスクにおけるLLMの課題には、まだ計算負荷が高く、効率が低いというものがあります。
そこで研究者らは、CoT(Chain-of-Thought)やToT(Tree of Thoughts)などよりもコストや効率に優れた手法を考案しました。
それによって、想定以上の結果が得られています。
以下は新しいフレームワーク『AoT』の詳細です。
■AoTの特徴
①少ないクエリと短い計算で高度な推論を可能にする
②深さ優先探索(DFS)や幅優先探索(BFS)などの既存アルゴリズムを模倣している
■方法論
①重くて難しい問題を、複数の「軽くて簡単なサブ問題」に分解する
(分解は繰り返される)
②分解されたサブ問題をひとつひとつ解決する
③各サブ問題の解決策を統合し、全体の問題解決を実現する
■実験の結果
①少ないクエリと短い計算で、既存の手法と同等またはそれ以上の推論パフォーマンスを発揮した
②AoTは独自の”直感”を用いて問題解決を行う能力も示した
■LLMが「”直感”を用いている」と考察された根拠
AoTによって、LLMは各サブ問題に対して多様な選択肢を考慮し、探索と修正を行いながら、与えられたプロンプトと効果的に相互作用する様子が観測されました。
単なる計算手法以上の、より高度な推論と判断をしている(=直感)だと考えられています。
なお、AoTは本質的にはLLMの内部構造やアルゴリズムに対する改良や強化によって完成するフレームワークです。
しかし、プロンプトの工夫や質問の設計によって一定程度は実現できる戦略のようです。