次回の更新記事:AIエージェントで論文内容を再現するワークフロー(…(公開予定日:2026年04月30日)
AIDB Daily Papers

AIコーディングエージェントは人間のようにログを出力するか?実証研究

原題: Do AI Coding Agents Log Like Humans? An Empirical Study
著者: Youssef Esseddiq Ouatiti, Mohammed Sayagh, Hao Li, Ahmed E. Hassan
公開日: 2026-04-10 | 分野: 人間 AI オープンソース 評価 分析 実験 プログラミング デバッグ GitHub 自然言語処理 人間とAIの共生 ソフトウェアエンジニアリング 大規模言語モデル ログ

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • AIコーディングエージェントのログ出力を、人間と比較し、自然言語指示の効果を検証した。
  • ソフトウェアの保守・デバッグに不可欠なログ出力において、AIの挙動は未解明であり、その改善が重要となる。
  • エージェントは人間よりログ変更が少ないが、ログ密度は高い。指示も効果が低く、人間が事後修正する傾向が見られた。

Abstract

Software logging is essential for maintaining and debugging complex systems, yet it remains unclear how AI coding agents handle this non-functional requirement. While prior work characterizes human logging practices, the behaviors of AI coding agents and the efficacy of natural language instructions in governing them are unexplored. To address this gap, we conduct an empirical study of 4,550 agentic pull requests across 81 open-source repositories. We compare agent logging patterns against human baselines and analyze the impact of explicit logging instructions. We find that agents change logging less often than humans in 58.4% of repositories, though they exhibit higher log density when they do. Furthermore, explicit logging instructions are rare (4.7%) and ineffective, as agents fail to comply with constructive requests 67% of the time. Finally, we observe that humans perform 72.5% of post-generation log repairs, acting as "silent janitors" who fix logging and observability issues without explicit review feedback. These findings indicate a dual failure in natural language instruction (i.e., scarcity of logging instructions and low agent compliance), suggesting that deterministic guardrails might be necessary to ensure consistent logging practices.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事