次回の更新記事:LLMにエピソード記憶のような能力を持たせるRAGのテ…(公開予定日:2025年11月18日)

論文

RAGにおいて取得された情報と事前知識が矛盾しても、情報に説得力があるときLLMは受け入れる
LLMに無礼なプロンプトを使用すると性能が低下するリスクの報告 一部、直感に反する複雑な結果も
GPT-4やGeminiなどさまざまなLLMで、プロンプトの入力が長くなるにつれて推論性能に顕著な低下が見られる
LLMの「心の理論」能力を詳しく調べるベンチマーク『OpenToM』登場 複数のLLMの評価結果も発表
GPT-4などに対してプロンプトのみから「新しい言葉の概念」を学習させるためのフレームワーク『FOCUS』
深層ニューラルネットワークの学習プロセスを運動方程式で表すことに成功 研究者本人が解説(NEC宮川大輝氏)
小さなLLMを多数組み合わせることで、単一の巨大モデルに匹敵する可能性
ユーザーの指示が曖昧なとき、LLM側が確認を行うエージェントアーキテクチャ『Mistral-Interact』
LLMの思考の流れに沿ってプロンプトを与えるか否かで30%以上精度が変化する DeepMindが報告
大規模言語モデル(LLM)のこれまでとこれから④ -ベンチマーク別の優秀なモデルと将来展望編-
大規模言語モデル(LLM)のこれまでとこれから③ -使用法・拡張法、データセット編-
大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-
大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-
LLMにタスクに応じた推論プロセスを自ら考えるようにさせるプロンプト手法『SELF-DISCOVER』Google DeepMindなどが開発
LLMに敢えて間違わせてルールを覚えさせるプロンプト手法 Google DeepMindなどが考案

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP