LLMの「心の理論」能力を詳しく調べるためのベンチマーク『OpenToM』

人間同士の円滑なコミュニケーションに不可...
Read More

小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性

大規模言語モデル(LLM)のパフォーマン...
Read More

LLM

RAGにおいて取得された情報と事前知識が矛盾しても、情報に説得力があるときLLMは受け入れる
LLMに無礼なプロンプトを使用すると性能が低下し、間違えるリスクが増加する可能性
GPT-4やGemini Pro1.0などさまざまなLLMで、プロンプトの入力が長くなるにつれて推論性能に顕著な低下が見られる
LLMの「心の理論」能力を詳しく調べるためのベンチマーク『OpenToM』
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性
ユーザーの指示が曖昧なとき、LLM側が確認を行うエージェントアーキテクチャ『Mistral-Interact』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告

業界/カテゴリー

PAGE TOP