25本の話題を同時に追跡しても、Claude 3.5 Sonnetは性能低下なし

本記事では、LLMの長文処理能力について...
Read More

「HTMLをそのままLLMに入力してはどうか」という新しいアプローチ

本記事では、LLMの精度向上のために用い...
Read More

LLMの機能別「領域」はまるで脳のようであるとの仮説

本記事では、LLMの内部で発見された驚く...
Read More

直感に頼るようなタスクだとLLMに「ステップバイステップで考えて」は逆効果

本記事では、LLMの性能向上テクニック「...
Read More

LLMが自分で「より賢いLLMの作り方」を発見するSelf-Developingフレームワーク(NEC 石橋陽一氏)

本記事は、研究者が自ら著書の論文を解説す...
Read More

LLMに対するオープンソース安全性評価ツールの比較

本記事では、LLMの安全性を自動的にチェ...
Read More

ハルシネーション

LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
GPT-4oに”嘘をつく理由”を与えると正直さが約32.5%減少 LLMは役割に応じて”正直さ”が変化する
モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
PAGE TOP