AIDB Daily Papers
人間かAIか?人間の記憶制約を突くことでLLMを検出する
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- オンライン行動研究の信頼性を脅かすLLMを、人間の認知制約に着目して判別する手法を提案した。
- LLMは高性能ゆえに、人間なら間違える問題を正答してしまう点を利用し、ワーキングメモリの制約を模倣できない弱点を突く。
- 系列再生課題において、認知モデリングを用いることで、人間を模倣しようとするLLMを区別できることを示した。
Abstract
The validity of online behavioral research relies on study participants being human rather than machine. In the past, it was possible to detect machines by posing simple challenges that were easily solved by humans but not by machines. General-purpose agents based on large language models (LLMs) can now solve many of these challenges, threatening the validity of online behavioral research. Here we explore the idea of detecting humanness by using tasks that machines can solve too well to be human. Specifically, we probe for the existence of an established human cognitive constraint: limited working memory capacity. We show that cognitive modeling on a standard serial recall task can be used to distinguish online participants from LLMs even when the latter are specifically instructed to mimic human working memory constraints. Our results demonstrate that it is viable to use well-established cognitive phenomena to distinguish LLMs from humans.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: