次回の更新記事:ローカルLLM効率の2年間の進化を俯瞰する 今後のク…(公開予定日:2025年11月14日)

LLM

LLMの「心の理論」能力を詳しく調べるベンチマーク『OpenToM』登場 複数のLLMの評価結果も発表
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性
ユーザーの指示が曖昧なとき、LLM側が確認を行うエージェントアーキテクチャ『Mistral-Interact』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告
大規模言語モデル(LLM)のこれまでとこれから④ -ベンチマーク別の優秀なモデルと将来展望編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
LLMにタスクに応じた推論プロセスを自ら考えるようにさせるプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案
ファインチューニングデータが十分に大きい場合、タスク性能向上に追加の事前学習は不要の可能性 Googleなどによるスケーリング則の実験から
GPT-4にRAG(検索拡張生成)を適用するケーススタディ 臨床問題で人間の医師よりも高い精度を達成
ナレッジグラフ(知識グラフ)とLLMを掛け合わせる方法のロードマップ
複数LLMに議論させ、「回答に自信がないときは発言を控えさせ」て応答品質を向上する方法

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP