AIDB Daily Papers
言語エージェントの認知世界をデザインする:Umwelt(環世界)エンジニアリング
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、プロンプトやコンテキストエンジニアリングの上流に位置する、言語的認知環境の設計「Umweltエンジニアリング」を提案した。
- 言語モデルの思考媒体を意図的に変えることで、認知自体に変化が生まれるという仮説を検証し、倫理的推論や分類タスクへの影響を分析した点が新しい。
- 特定の語彙制限(所有の「持つ」や存在の「である」の排除)が、倫理的推論の向上や、モデル間の多様性をもたらすことを実験的に明らかにした。
Abstract
I propose Umwelt engineering -- the deliberate design of the linguistic cognitive environment -- as a third layer in the agent design stack, upstream of both prompt and context engineering. Two experiments test the thesis that altering the medium of reasoning alters cognition itself. In Experiment 1, three language models reason under two vocabulary constraints -- No-Have (eliminating possessive "to have") and E-Prime (eliminating "to be") -- across seven tasks (N=4,470 trials). No-Have improves ethical reasoning by 19.1 pp (p < 0.001), classification by 6.5 pp (p < 0.001), and epistemic calibration by 7.4 pp, while achieving 92.8% constraint compliance. E-Prime shows dramatic but model-dependent effects: cross-model correlations reach r = -0.75. In Experiment 2, 16 linguistically constrained agents tackle 17 debugging problems. No constrained agent outperforms the control individually, yet a 3-agent ensemble achieves 100% ground-truth coverage versus 88.2% for the control. A permutation test confirms only 8% of random 3-agent subsets achieve full coverage, and every successful subset contains the counterfactual agent. Two mechanisms emerge: cognitive restructuring and cognitive diversification. The primary limitation is the absence of an active control matching constraint prompt elaborateness.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: