次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

LLMLOOP:自動反復フィードバックループによるLLM生成コードとテストの改善

原題: LLMLOOP: Improving LLM-Generated Code and Tests through Automated Iterative Feedback Loops
著者: Ravin Ravi, Dylan Bradshaw, Stefano Ruberto, Gunel Jahangirova, Valerio Terragni
公開日: 2026-03-24 | 分野: LLM 機械学習 AI ソフトウェア 自動化 コード プログラミング テスト デバッグ エラー

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • LLMによるコード生成とテストの自動改善フレームワークLLMLOOPを提案し、開発者の負担を軽減します。
  • コンパイルエラー解決、静的解析、テスト失敗修正、変異解析によるテスト品質向上という反復ループが特徴です。
  • HUMANEVAL-Xでの評価により、LLMLOOPがLLM生成コードの品質向上に有効であることが示されました。

Abstract

Large Language Models (LLMs) are showing remarkable performance in generating source code, yet the generated code often has issues like compilation errors or incorrect code. Researchers and developers often face wasted effort in implementing checks and refining LLM-generated code, frequently duplicating their efforts. This paper presents LLMLOOP, a framework that automates the refinement of both source code and test cases produced by LLMs. LLMLOOP employs five iterative loops: resolving compilation errors, addressing static analysis issues, fixing test case failures, and improving test quality through mutation analysis. These loops ensure the generation of high-quality test cases that serve as both a validation mechanism and a regression test suite for the generated code. We evaluated LLMLOOP on HUMANEVAL-X, a recent benchmark of programming tasks. Results demonstrate the tool's effectiveness in refining LLM-generated outputs.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事