Self-Reflection(自己反省)がLLMのパフォーマンスに与える影響を網羅的に調査

この記事では、LLMが自分自身の行動を反...
Read More

LLMの推論能力を戦略的に向上させる新しいプロンプト手法『SCoT』

この記事では、LLMの推論能力を向上させ...
Read More

ロングコンテキストLLM台頭の今もRAGを使用する理由

この記事では、LLMが長い文章を理解でき...
Read More

論文

Googleなどが開発、LLMに表データ(.csvなど)の情報を深く理解させるためのフレームワーク『Chain of Table』
LLMの知識を狙い撃ちして変更・修正する「知識編集(Knowledge Editing)」
LLMに「自分自身との対戦」で能力を向上させる手法『Self-Play Fine-Tuning(SPIN)』
1.1Bパラメータの小さなモデルを巨大データ(約3兆トークン)で訓練したモデル『TinyLlama』が、比較的優秀な性能を発揮
LLMが「教えてはいけない事実」を抑制するパーツが明らかに Llama-2を1057個に分解
LLMにおける情報抽出(文章から必要な事柄を読み取る)タスクについての調査
LLMの内部状態を観察することで「出力がハルシネーションか否かを判別する」手法『LLMファクトスコープ』
Geminiの「常識を推論する能力」を網羅的に調査した結果 間違えやすいタイプの問題も明らかに

業界/カテゴリー

PAGE TOP