AIDB Daily Papers
AIガバナンスプロンプトの構造的品質ギャップ:5原則評価フレームワークによる実証研究
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- AIエージェントの行動を制約・指示するガバナンスプロンプトの構造的完全性を評価する5原則フレームワークを提案した。
- GitHub上の34件のAGENTS.mdガバナンスファイルを分析した結果、37%が構造的完全性の閾値を下回っていた。
- プロンプトにデータ分類や評価基準が欠落する傾向があり、静的解析による自動検出・修正の可能性を示唆した。
Abstract
AI governance programmes increasingly rely on natural language prompts to constrain and direct AI agent behaviour. These prompts function as executable specifications: they define the agent's mandate, scope, and quality criteria. Despite this role, no systematic framework exists for evaluating whether a governance prompt is structurally complete. We introduce a five-principle evaluation framework grounded in computability theory, proof theory, and Bayesian epistemology, and apply it to an empirical corpus of 34 publicly available AGENTS.md governance files sourced from GitHub. Our evaluation reveals that 37% of evaluated file-model pairs score below the structural completeness threshold, with data classification and assessment rubric criteria most frequently absent. These results suggest that practitioner-authored governance prompts exhibit consistent structural patterns that automated static analysis could detect and remediate. We discuss implications for requirements engineering practice in AI-assisted development contexts, identify a previously undocumented artefact classification gap in the AGENTS.md convention, and propose directions for tool support.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: