次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

エージェント的スキル進化によるメタコンテキストエンジニアリング

原題: Meta Context Engineering via Agentic Skill Evolution
著者: Haoran Ye, Xuning He, Vincent Arak, Haonan Dong, Guojie Song
公開日: 2026-01-29 | 分野: LLM Transformer 効率化 推論 機械学習 AI

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 大規模言語モデルの推論時コンテキスト最適化のため、CEスキルとコンテキストを共進化させるMCEフレームワークを提案した。
  • 既存のCE手法の構造的バイアスと狭い設計空間を克服し、より柔軟で効率的なコンテキスト最適化を可能にする点が重要である。
  • MCEは、5つの異なる領域で最先端のCE手法を上回り、平均16.9%の性能向上、優れた適応性、転送性、効率性を示した。

Abstract

The operational efficacy of large language models relies heavily on their inference-time context. This has established Context Engineering (CE) as a formal discipline for optimizing these inputs. Current CE methods rely on manually crafted harnesses, such as rigid generation-reflection workflows and predefined context schemas. They impose structural biases and restrict context optimization to a narrow, intuition-bound design space. To address this, we introduce Meta Context Engineering (MCE), a bi-level framework that supersedes static CE heuristics by co-evolving CE skills and context artifacts. In MCE iterations, a meta-level agent refines engineering skills via agentic crossover, a deliberative search over the history of skills, their executions, and evaluations. A base-level agent executes these skills, learns from training rollouts, and optimizes context as flexible files and code. We evaluate MCE across five disparate domains under offline and online settings. MCE demonstrates consistent performance gains, achieving 5.6--53.8% relative improvement over state-of-the-art agentic CE methods (mean of 16.9%), while maintaining superior context adaptability, transferability, and efficiency in both context usage and training.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事