次回の更新記事:AIチューターが人間授業を超えた日と、成績を落とし…(公開予定日:2026年04月29日)
AIDB Daily Papers

キルチェーンにおける人間の判断の終焉?主体的なAIによる主導権と解釈の再配置

原題: The End of Human Judgment in the Kill Chain? Relocating Initiative and Interpretation with Agentic AI
著者: Jovana Davidovic
公開日: 2026-04-07 | 分野: 敵対者 戦争 紛争 国際 データ融合 軍事 ガバナンス 戦略 判断 大規模言語モデル 戦術 LLM 自律性 制御 倫理 自動化 意思決定 リスク 政治 エージェント AI 安全性

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデル基盤のエージェントが、インテリジェンス分析やデータ融合など、戦場の主要機能に統合されつつある。
  • エージェントの主体性、解釈能力、目標指向性、動的記憶は、運用上魅力的である一方、人間の判断と制御を無効化する。
  • データ融合や戦闘管理に展開されるAIエージェントは、現行のガバナンス・フレームワークと相容れず、正当化できない可能性がある。

Abstract

Large language model-based agents are increasingly being integrated into core battlefield functions, including intelligence analysis, data fusion, and battlefield management. This paper argues that the very features that make such agents operationally attractive, namely their capacity for initiative, interpretation, their goal-directedness, and dynamic memory, are the same features that render context-appropriate human judgment and control substantively ineffectual in those parts of the kill chain where agents operate. Drawing on specific use cases, the paper argues that by relocating initiative and interpretation, LLM-based agents displace human decision-making in ways that makes their use incompatible with the requirement of human judgment and control which is central to existing governance frameworks, like those proposed by the GGE-CCW and REAIM. The paper concludes that a subset of agentic AI applications, particularly those deployed for data fusion and battle management in lethal contexts, cannot be used justifiably on the battlefield under current and foreseeable conditions, and proposes two ways for the international governance community to respond to this challenge.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事