AIDB Daily Papers
認知科学における科学的発見の自動化は可能か?大規模言語モデルによる理論構築の加速
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 認知科学の計算モデル構築サイクルを、大規模言語モデル(LLM)を用いて完全自動化する新しいパラダイムを提案する研究である。
- 研究者の経験や直感に依存した探索空間の制約を克服し、理論開発を高速化・大規模化する可能性を示す点が重要かつ新しい。
- LLMが生成した実験パラダイム、シミュレーションされた行動データ、プログラム合成された認知モデルを組み合わせ、興味深い実験とメカニズムを発見する。
Abstract
The cognitive sciences aim to understand intelligence by formalizing underlying operations as computational models. Traditionally, this follows a cycle of discovery where researchers develop paradigms, collect data, and test predefined model classes. However, this manual pipeline is fundamentally constrained by the slow pace of human intervention and a search space limited by researchers' background and intuition. Here, we propose a paradigm shift toward a fully automated, in silico science of the mind that implements every stage of the discovery cycle using Large Language Models (LLMs). In this framework, experimental paradigms exploring conceptually meaningful task structures are directly sampled from an LLM. High-fidelity behavioral data are then simulated using foundation models of cognition. The tedious step of handcrafting cognitive models is replaced by LLM-based program synthesis, which performs a high-throughput search over a vast landscape of algorithmic hypotheses. Finally, the discovery loop is closed by optimizing for ''interestingness'', a metric of conceptual yield evaluated by an LLM-critic. By enabling a fast and scalable approach to theory development, this automated loop functions as a high-throughput in-silico discovery engine, surfacing informative experiments and mechanisms for subsequent validation in real human populations.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: