LLMによるバグ全自動修正に成功するケースと失敗するケースの違い

本記事では、LLMによるバグ修正に関する...
Read More

LLMが長々と説明するときは自信がない傾向にある 14個のモデルで検証

本記事では、LLMが「答えに自信がない時...
Read More

LLMプロジェクト開発に必要な新しい概念「AgentOps」とは

本記事では、LLMエージェントを安全に開...
Read More

画像も文字も表も全部まとめて理解するRAGシステムの提案 Bloombergなど

本記事では、複数の文書やページから図や表...
Read More

LLMにおける長文処理能力の進化を調査 Claude 3.5は情報の流れを追跡するスキルに長ける

本記事では、LLMの長文処理能力について...
Read More

LLM

大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
LLMにタスクに応じた推論プロセスを自ら考えるようにするプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法
LLMの検索結果をさらに正確にする手法『CRAG』(Corrective Retrieval Augmented Generation:修正型の検索拡張生成)
PAGE TOP