次回の更新記事:「この要件、どこに実装してたっけ?」をLLMで解く、…(公開予定日:2026年05月03日)
AIDB Daily Papers

ビジネスロジックのバグを意味論駆動の単体テスト生成で発見する

原題: Uncovering Business Logic Bugs via Semantics-Driven Unit Test Generation
著者: Chen Yang, Junjie Chen
公開日: 2026-04-26 | 分野: LLM AI ソフトウェアエンジニアリング cs.SE ビジネスロジック テスト生成 バグ検出

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 製品要件文書から意味論的知識ベースを構築し、ビジネスロジックのバグを発見するSeGaを提案しました。
  • 既存手法がコード中心であるのに対し、SeGaは意味論的シナリオを導出し、LLMによるテスト生成をガイドする点で重要かつ新規性があります。
  • 4つの産業プロジェクトで22-25件のバグを追加検出し、実運用リポジトリで16件の未知のバグを発見・修正しました。

Abstract

Business logic bugs violate intended business semantics and are particularly prevalent in enterprise software. Yet most existing unit test generation techniques are code-centric, making such bugs difficult to expose. We present SeGa, a semantics-driven unit test generation technique for uncovering business logic bugs. SeGa constructs a semantic knowledge base from product requirement documents, represented as a set of functionality entries that group related requirements under a common business intent. Given a focal method, SeGa retrieves the relevant functionality entries and derives fine-grained business scenarios with explicit preconditions, triggering actions, expected outcomes, and semantic constraints to guide LLM-based test generation. We evaluate SeGa on four industrial Go projects containing 60 real-world business logic bugs. SeGa detects 22-25 more bugs than four state-of-the-art LLM-based techniques and improves precision by 26.9%-34.3%. Deployment across 6 production repositories further uncovers 16 previously unknown business logic bugs that were confirmed and fixed by developers. From our industrial study, we summarize a series of lessons and suggestions for practical use and future research.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事