LLMの推論能力は単純に文脈を繰り返すだけでも大幅に向上 最大で30%改善

本記事では、LLMの多段階推論能力を向上...
Read More

高解像度な深度マップを高速生成するモデル『Depth Pro』Appleが公開

本記事では、1枚の画像から高精度な奥行き...
Read More

100万体のLLMエージェントによるシミュレーションを実験できる環境が登場

本記事では、LLMを活用した大規模マルチ...
Read More

「o1」は従来のモデルとは明確に異なり「珍しいタイプの問題」にも強い

本記事では、OpenAIが開発した新しい...
Read More

LLM

LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
LLMの検索結果をさらに正確にする手法『CRAG』(Corrective Retrieval Augmented Generation:修正型の検索拡張生成)
LLMを軽くする効果的な剪定手法『SliceGPT』
RAGシステムに「無関係な」文書を混ぜたほうがLLMの出力精度が上がる可能性が示唆された
PAGE TOP