AIDB Daily Papers
LLMLOOP:自動反復フィードバックループによるLLM生成コードとテストの改善
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- LLMによるコード生成とテストの自動改善フレームワークLLMLOOPを提案し、開発者の負担を軽減します。
- コンパイルエラー解決、静的解析、テスト失敗修正、変異解析によるテスト品質向上という反復ループが特徴です。
- HUMANEVAL-Xでの評価により、LLMLOOPがLLM生成コードの品質向上に有効であることが示されました。
Abstract
Large Language Models (LLMs) are showing remarkable performance in generating source code, yet the generated code often has issues like compilation errors or incorrect code. Researchers and developers often face wasted effort in implementing checks and refining LLM-generated code, frequently duplicating their efforts. This paper presents LLMLOOP, a framework that automates the refinement of both source code and test cases produced by LLMs. LLMLOOP employs five iterative loops: resolving compilation errors, addressing static analysis issues, fixing test case failures, and improving test quality through mutation analysis. These loops ensure the generation of high-quality test cases that serve as both a validation mechanism and a regression test suite for the generated code. We evaluated LLMLOOP on HUMANEVAL-X, a recent benchmark of programming tasks. Results demonstrate the tool's effectiveness in refining LLM-generated outputs.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: