o1モデルが人間のように6つの思考パターンを使い分けているとの実験結果

本記事では、AIの性能向上における「推論...
Read More

IBMから日本語対応の商用可能オープンソースLLM「GRANITE 3.0」公開 8Bから

本記事では、IBMが新たに開発した軽量な...
Read More

計画のステップが増えるほど、LLMは最初の目標を見失っていく傾向がある

本記事では、LLMを活用したエージェント...
Read More

LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善

本記事では、LLMの多段階推論能力を向上...
Read More

長文脈

ロングコンテキストLLMでも、情報の数は「多ければ多いほど良い」わけではない
ロングコンテキストLLM台頭の今もRAGを使用する理由
ロングコンテキストはRAGもText to SQLも解決するか Googleがケーススタディを実施
多くの「長いコンテキストを要するタスク」を、短いコンテキストウィンドウのLLMで解決する手法
LLMのプロンプトに数百から数千の例を含める超長尺のコンテキスト内学習(In-context learning)とファインチューニングの性能比較
LLMにおける、長いコンテキストから欲しい情報を見つけ出す「needle-in-a-haystack(干し草の中の針)」テスト結果とプロンプト例
どのLLMが最も長文要約性能が高いのか評価した実験結果 データセットと要約ノウハウも公開
PAGE TOP