AIDB Daily Papers
エージェントAIの技術的メカニズムとグローバルな法的枠組みの乖離: गैップに注意
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、各機関におけるエージェントAIの定義を比較調査し、技術的な不正確さを特定しました。
- 既存の法的定義は、モデルの能力とエージェントアーキテクチャを混同しており、規制が実際のメカニズムを捉えきれていない点が重要です。
- 開発者ドキュメントから合成された技術的な定義を提案し、システムプロンプト、API権限などがエージェントの自律性を構成することを示しました。
Abstract
This article presents the first systematic comparative survey of how public bodies, international organisations, national regulators, and the private sector define agentic artificial intelligence, identifying the technical inaccuracies pervading each definition. Analysing eleven regulatory instruments and industry frameworks -- including the EU AI Act, the OECD/G7 Principles, NIST, the UK ICO, and the European Commission -- alongside six leading developer architectures, this study demonstrates a persistent definitional gap: legal definitions consistently conflate model capability with agentic architecture, attribute cognitive deliberation to probabilistic token prediction, and treat autonomy as a scalar property rather than a structural shift from single-inference to iterative execution loops with tool integration. A consensus technical definition synthesised from developer documentation is proposed. The article examines the consequences of this gap, demonstrating that definitional imprecision produces regulatory instruments structurally incapable of governing the actual mechanisms -- system prompts, API permissions, sandboxing, and orchestration code -- that constitute agentic autonomy.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: