AIDB Daily Papers
LLMの落とし穴:進化するAPIとコード生成における知識の衝突
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、ソフトウェアライブラリのAPI進化がLLMのコード生成に与える影響を体系的に調査した。
- APIの変更に対し、LLMは外部情報と内部知識の矛盾により、実行可能なコード生成に苦戦することが判明した。
- 大規模言語モデルでもAPI進化への対応は不十分であり、進化を考慮したベンチマークと技術の必要性を示唆する。
Abstract
The rapid evolution of software libraries creates a significant challenge for Large Language Models (LLMs), whose static parametric knowledge often becomes stale post-training. While retrieval-augmented generation (RAG) is commonly used to provide up-to-date API specifications, "context-memory conflict" arises when external instructions contradict a model's internal parametric knowledge. This paper presents a systematic empirical study of LLM code generation under API evolution (e.g., API deprecation, API modification, and API addition), by constructing a benchmark of 270 real-world updates from eight Python libraries. We evaluate four LLM families of 11 models. Our results show that without comprehensive documentation, LLMs struggle to prioritize external context, averaging only 42.55% of generated code examples are executable in the target environment. While structured documentation and larger model scales improve LLMs' ability to update adoption, they do not fully resolve executability issues with a low 66.36% executable rate. In addition, reasoning-based strategies (e.g., Self-Reflection) significantly boost LLMs' performance with 11% improvement on executable rate. Our findings highlight the persistence of outdated patterns from LLMs, even when API update specifications are provided, and emphasize the need for evolution-aware benchmarks and techniques.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: