次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

量子最大尤度予測:ヒルベルト空間埋め込みによる新たな視点

原題: Quantum Maximum Likelihood Prediction via Hilbert Space Embeddings
著者: Sreejith Sreekumar, Nir Weinberger
公開日: 2026-02-20 | 分野: LLM NLP Transformer 安全性 情報理論 量子

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル(LLM)のインコンテキスト予測能力を、情報幾何学と統計的視点から量子密度演算子空間への埋め込みとしてモデル化した。
  • 従来のLLMの説明とは異なり、量子モデルを用いた最大尤度予測として解釈することで、古典と量子のLLMを統一的に扱える。
  • 量子逆情報射影や量子ピタゴラスの定理を用いて予測を解釈し、トレースノルムと量子相対エントロピーにおける性能保証を導出した。

Abstract

Recent works have proposed various explanations for the ability of modern large language models (LLMs) to perform in-context prediction. We propose an alternative conceptual viewpoint from an information-geometric and statistical perspective. Motivated by Bach[2023], we model training as learning an embedding of probability distributions into the space of quantum density operators, and in-context learning as maximum-likelihood prediction over a specified class of quantum models. We provide an interpretation of this predictor in terms of quantum reverse information projection and quantum Pythagorean theorem when the class of quantum models is sufficiently expressive. We further derive non-asymptotic performance guarantees in terms of convergence rates and concentration inequalities, both in trace norm and quantum relative entropy. Our approach provides a unified framework to handle both classical and quantum LLMs.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事