次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

言語モデル層と人間の文処理の二重の整合性:初期層は自然な読解、後期層は構文解析の難問を捉える

原題: Dual Alignment Between Language Model Layers and Human Sentence Processing
著者: Tatsuki Kuribayashi, Alex Warstadt, Yohei Oseki, Ethan Gotlieb Wilcox
公開日: 2026-04-20 | 分野: LLM NLP 機械学習 自然言語処理 深層学習 cs.CL 言語モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究は、大規模言語モデル(LLM)の初期層が人間の自然な文処理をモデル化できることを示し、後期層が構文解析の難問における人間の認知負荷をより良く推定できることを発見した。
  • この発見は、人間の文処理とLLMの内部表現との間に二重の整合性があることを示唆しており、自然な読解と構文解析の難問で異なる処理モードが存在することを示している。
  • さらに、LLMの浅い層と深い層を用いた確率更新尺度が、読解時間モデリングにおいて単一層の驚き度(surprisal)に補完的な利点を持つことを示した。

Abstract

A recent study (Kuribayashi et al., 2025) has shown that human sentence processing behavior, typically measured on syntactically unchallenging constructions, can be effectively modeled using surprisal from early layers of large language models (LLMs). This raises the question of whether such advantages of internal layers extend to more syntactically challenging constructions, where surprisal has been reported to underestimate human cognitive effort. In this paper, we begin by exploring internal layers that better estimate human cognitive effort observed in syntactic ambiguity processing in English. Our experiments show that, in contrast to naturalistic reading, later layers better estimate such a cognitive effort, but still underestimate the human data. This dual alignment sheds light on different modes of sentence processing in humans and LMs: naturalistic reading employs a somewhat weak prediction akin to earlier layers of LMs, while syntactically challenging processing requires more fully-contextualized representations, better modeled by later layers of LMs. Motivated by these findings, we also explore several probability-update measures using shallow and deep layers of LMs, showing a complementary advantage to single-layer's surprisal in reading time modeling.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事