LLMは本当に推論しているか?原理から導かれる長所短所と最適なフレームワーク

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

現在のLLMにおいて、皆が推論と呼んでいるものは、記憶とパターンに基づく生成のため、厳密には論理に基づくものではないと主張する論文が投稿されています。

そのため、その原則に基づく長所と短所に合わせた方法論を考えることが推奨されています。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

参照論文情報

はじめに

LLMは、超大規模のデータで学習された結果、誰もが予想もしなかった言語的振る舞いを示しています。一見してあまりにも汎用的なので、多くの研究者は、計画や推論のタスクでも優れた性能を発揮できるのではないかと考えるようになりました。

LLMが得意とするのは、一種の検索です。データベースから正確にデータを索引付けして取得するのとは異なり、LLMは、プロンプトの単語ごとに確率的に補完を再構成します。原理的には文章の自動補完ツールをもっと格段に高度にしたものだと考えるとわかりやすいかもしれません。

そのため研究者は、本質的にはLLMの長所は「創造性」であり短所は「幻覚」と考えています。そして、これこそまさにLLMの魅力の根源だと言います。

一方で現在「LLMはゼロショットで〈〇〇推論タスク〉ができる」といったタイトルの論文が非常に多く出ています。しかし改めて考えると、モデルは、本当に計画や推論ができるのでしょうか?

以下では、研究者らが考案した、LLMの短所を補い長所を伸ばす形で推論や計画タスクに活用するためのフレームワークを紹介します。まずはじめに研究者が行なった実験結果や考察から見ていきます。

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP