次回の更新記事:ソフトウェア評価にLLMを活用する「LLM-as-a-Judge」…(公開予定日:2025年03月07日)

ハルシネーション

ハルシネーションが創薬研究を進展させる可能性 LLMの新たな活用法
LLMにおける事実性の評価&向上に役立つデータセットの作り方
LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
GPT-4oに”嘘をつく理由”を与えると正直さが約32.5%減少 LLMは役割に応じて”正直さ”が変化する
モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP