Search for:
menu
menu
論文
AIDBとは
アカウント作成
ログイン
ホーム
ハルシネーション
次回の更新記事:
ソフトウェア評価にLLMを活用する「LLM-as-a-Judge」…
(公開予定日:2025年03月07日)
ハルシネーション
2025/1/30
LLM
ハルシネーション
論文
ハルシネーションが創薬研究を進展させる可能性 LLMの新たな活用法
ハルシネーションが創薬研究を進展させる可能性 LLMの新たな活用法
2024/12/10
LLM
ハルシネーション
論文
LLMにおける事実性の評価&向上に役立つデータセットの作り方
LLMにおける事実性の評価&向上に役立つデータセットの作り方
2024/11/6
LLM
ハルシネーション
論文
LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
LLMの「知っているのに嘘をつく」幻覚と「知らないから間違える」幻覚の違い
2024/10/30
LLM
ハルシネーション
プロンプト
論文
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
手の込んだ手法よりシンプルな手法の方がLLMは幻覚を起こしにくい 問題に応じて戦略を変える必要性
2024/9/20
LLM
エージェント
ハルシネーション
プロンプト
論文
GPT-4oに”嘘をつく理由”を与えると正直さが約32.5%減少 LLMは役割に応じて”正直さ”が変化する
GPT-4oに”嘘をつく理由”を与えると正直さが約32.5%減少 LLMは役割に応じて”正直さ”が変化する
2024/8/26
LLM
ハルシネーション
論文
モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究
モデルとデータの大規模化で変化するLLMのハルシネーション Google DeepMindの研究
2024/5/22
LLM
ハルシネーション
ファインチューニング
論文
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
ファインチューニングがLLMの幻覚(ハルシネーション)に与える影響 Googleなどによる検証結果
2024/5/9
LLM
サーベイ
ハルシネーション
マルチモーダル
論文
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
マルチモーダルLLMにおける幻覚(ハルシネーション)の原因と対策 クリエイティブでの活用も推奨 AWSなどが網羅的に調査
2024/4/25
LLM
RAG
ハルシネーション
論文
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
2024/1/3
LLM
ハルシネーション
論文
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
1
2
>
直近1ヶ月で読まれている記事
LLM専用の「新しい言葉」を導入 Google DeepMind
GPT-4とヒューマノイドロボットを連携すると何が起こるか。東京大学と株式会社オルタナティヴ・マシンの研究者らが実験
LLMの定理証明力を2倍に向上させる「予想と証明を繰り返させる」手法 限られたデータの中で
LLMを擬人化することに対する見解
「職業別にみるLLM活用の現状と今後」Anthropicが大規模調査
プロフィールを登録すると
仕事のオファーが届きます
プロフィール登録
PAGE TOP
Copyright ©
AIDB
All rights reserved.