AIDB Daily Papers
LLMの真価は、説明不能な能力にこそ宿る:逆説的な提唱
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)の真に価値ある能力は、人間が理解できるルールでは捉えきれない部分にあると主張する。
- もしLLMの全能力が人間可読なルールで記述可能なら、それはエキスパートシステムと同等になるが、実際はLLMの方が優れているため重要である。
- この考察は、解釈可能性研究、AI安全性、科学認識論に影響を与え、LLMの限界と可能性を再考するきっかけとなる。
Abstract
This paper proposes and argues for a counterintuitive thesis: the truly valuable capabilities of large language models (LLMs) reside precisely in the part that cannot be fully captured by human-readable discrete rules. The core argument is a proof by contradiction via expert system equivalence: if the full capabilities of an LLM could be described by a complete set of human-readable rules, then that rule set would be functionally equivalent to an expert system; but expert systems have been historically and empirically demonstrated to be strictly weaker than LLMs; therefore, a contradiction arises -- the capabilities of LLMs that exceed those of expert systems are exactly the capabilities that cannot be rule-encoded. This thesis is further supported by the Chinese philosophical concept of Wu (sudden insight through practice), the historical failure of expert systems, and a structural mismatch between human cognitive tools and complex systems. The paper discusses implications for interpretability research, AI safety, and scientific epistemology.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: