次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

人間かAIか?人間の記憶制約を突くことでLLMを検出する

原題: Are they human? Detecting large language models by probing human memory constraints
著者: Simon Schug, Brenden M. Lake
公開日: 2026-03-10 | 分野: LLM NLP 人間 機械学習 AI 認知 評価 心理 実験 モデル 深層学習

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • オンライン行動研究の信頼性を脅かすLLMを、人間の認知制約に着目して判別する手法を提案した。
  • LLMは高性能ゆえに、人間なら間違える問題を正答してしまう点を利用し、ワーキングメモリの制約を模倣できない弱点を突く。
  • 系列再生課題において、認知モデリングを用いることで、人間を模倣しようとするLLMを区別できることを示した。

Abstract

The validity of online behavioral research relies on study participants being human rather than machine. In the past, it was possible to detect machines by posing simple challenges that were easily solved by humans but not by machines. General-purpose agents based on large language models (LLMs) can now solve many of these challenges, threatening the validity of online behavioral research. Here we explore the idea of detecting humanness by using tasks that machines can solve too well to be human. Specifically, we probe for the existence of an established human cognitive constraint: limited working memory capacity. We show that cognitive modeling on a standard serial recall task can be used to distinguish online participants from LLMs even when the latter are specifically instructed to mimic human working memory constraints. Our results demonstrate that it is viable to use well-established cognitive phenomena to distinguish LLMs from humans.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事