次回の更新記事:学習者の目標達成をサポートするLLMシステムの開発(公開予定日:2025年01月31日)

ハルシネーションが創薬研究を進展させる可能性 LLMの新たな活用法

本記事では、LLMにおける「ハルシネーシ...
Read More

LLMにおける「計画立案能力」を高めるプロンプト手法の新提案

本記事では、LLMの自律的な計画立案能力...
Read More

マルチエージェントシステムで発生する同調バイアスを緩和する方法

本記事では、LLMのマルチエージェントシ...
Read More

三段論法でLLMの推論能力を高める プロンプト手法の新提案

本記事では、LLMに三段論法による推論能...
Read More

マルチエージェントによる自動カウンセリングシステム

本記事では、対面カウンセリングのアクセス...
Read More

LLMエージェント間で観察された人間のような「意見の二極化」

この記事では、LLMを使ったエージェント...
Read More

企業環境での自動バグ修復に向けたGoogleの取り組み

本記事では、Googleが取り組むエージ...
Read More

DeepSeekが実現した教師なし強化学習による推論性能の向上

本記事では、LLMの推論能力を強化学習の...
Read More

ハルシネーション

小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
LLMの誤り(ハルシネーション)発生原因と、「創造性と事実性のバランス」などの対策ロードマップ
LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト
LLMに自身のハルシネーション(幻覚)を「自覚」させ、減らす方法
PAGE TOP