Self-Reflection(自己反省)がLLMのパフォーマンスに与える影響を網羅的に調査

この記事では、LLMが自分自身の行動を反...
Read More

LLMの推論能力を戦略的に向上させる新しいプロンプト手法『SCoT』

この記事では、LLMの推論能力を向上させ...
Read More

ロングコンテキストLLM台頭の今もRAGを使用する理由

この記事では、LLMが長い文章を理解でき...
Read More

論文

LLMに無礼なプロンプトを使用すると性能が低下するリスクの報告 一部、直感に反する複雑な結果も
GPT-4やGeminiなどさまざまなLLMで、プロンプトの入力が長くなるにつれて推論性能に顕著な低下が見られる
LLMの「心の理論」能力を詳しく調べるためのベンチマーク『OpenToM』 GPT-4など複数モデルの評価結果
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
深層ニューラルネットワークの学習プロセスを運動方程式で表すことに成功 研究者本人が解説(NEC宮川大輝氏)
小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性
ユーザーの指示が曖昧なとき、LLM側が確認を行うエージェントアーキテクチャ『Mistral-Interact』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告

業界/カテゴリー

PAGE TOP