次回の更新記事:LLM同士だけで伝わる効率的なコミュニケーションをさ…(公開予定日:2024年12月16日)

LLMを利用した「自動データクリーニング」方法

本記事では、データ活用の現場で大きな壁と...
Read More

研究活動におけるLLMの「使われ方」や「好まれ方」に関する実態調査の結果

本記事では、816名の研究者を対象とした...
Read More

LLMの開発トレンドに新たに見出された『密度化の法則』および『能力密度』の概念

本記事では、LLMにおける新しい評価指標...
Read More

LLMにおける事実性の評価&向上に役立つデータセットの作り方

本記事では、LLMが抱える「ハルシネーシ...
Read More

OpenAI o1モデルファミリー登場 その特徴の全貌

この記事では、OpenAIがついにo1モ...
Read More

ハルシネーション

LLMにおける事実性の評価&向上に役立つデータセットの作り方
LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
GPT-4oに”嘘をつく理由”を与えると正直さが約32.5%減少 LLMは役割に応じて”正直さ”が変化する
モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
PAGE TOP