LLMによる目標達成と正直さのジレンマ

本記事では、カーネギーメロン大学などの研...
Read More

単純に生成回数を増やすとLLMの性能が大幅に向上する「推論時のスケーリング則」

この記事では、LLMの性能を向上させる新...
Read More

Self-Reflection(自己反省)がLLMのパフォーマンスに与える影響を網羅的に調査

この記事では、LLMが自分自身の行動を反...
Read More

LLMの推論能力を戦略的に向上させる新しいプロンプト手法『SCoT』

この記事では、LLMの推論能力を向上させ...
Read More

ロングコンテキストLLM台頭の今もRAGを使用する理由

この記事では、LLMが長い文章を理解でき...
Read More

論文

量子化はLLMの性能にどう影響を与えるか?モデルが持つ「自信」の観点から説明
LLMに対して、「人間には意味が分からない滅茶苦茶な文」でプロンプトを送る手法『LM Babel』
マルチモーダルLLMにおける欠点と原因を明らかにする調査研究の結果
LLMでWikipediaのような文書を作成する方法「STORM」スタンフォード大学研究者ら開発
小さなRetrieverとLLMの組み合わせによる実用的なワークフロー生成システム またはRAGで幻覚を減らす手法
強くて軽いモデルPhi-3の評価結果 Microsoftの論文(テクニカルレポート)より
プロンプトでLLMにRPAワークフローを自動生成させる手法「FlowMind」JPモルガン考案
LLMにおける、長いコンテキストから欲しい情報を見つけ出す「needle-in-a-haystack(干し草の中の針)」テスト結果とプロンプト例

業界/カテゴリー

PAGE TOP