LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
本記事では、LLMが示す「幻覚(ハルシネーション)」という現象についての新しい研究を紹介します。幻覚とは、一般的に、LLMが事実とは異なる情報を出力してしまうこと全般を指します。 LLMの幻覚はよく一括りにされますが、実際には「知識がないための幻覚」と「知識があるのに起こる幻覚」という2つの異なるタイプが存在します。今回、これらの詳しい調査が行われました。 幻覚の対策方法を練る上でも、仕組みを理解することは重要な意味を持ちます。 本記事の関連研究 モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究 ファインチューニングがLLMの幻覚(ハルシネーショ…
埋め込むにはこの URL をコピーして WordPress サイトに貼り付けてください
埋め込むにはこのコードをコピーしてサイトに貼り付けてください