次回の更新記事:今週の注目AI論文リスト(論文公開日2026/3/1~3/7)(公開予定日:2026年03月07日)
AIDBは、AI活用のノウハウ獲得や技術動向の調査のために、個人やチームが論文を探す・読む・活かす作業をサポートするプラットフォームです。なお、記事や投稿は人の手で書いています。

GPT-4などのLLMがセキュリティ脆弱性とソフトウェア機能性の評価能力で高い精度を示す

2024.03.21
深堀り解説

JPモルガンの研究者らは、コードレビューにおいてLLMをどのように活用できるかを調査しました。

実験ではOpenAIの各種商用モデルと、比較的小規模なオープンソースLLMを使用し、セキュリティ脆弱性のあるコードにフラグを立てる能力と、ソフトウェアの機能検証能力を評価しました。

参照論文情報

  • タイトル:Software Vulnerability and Functionality Assessment using LLMs
  • URL:https://doi.org/10.48550/arXiv.2403.08429
  • 機関:JP Morgan AI Research
  • 著者:Rasmus Ingemann Tuffveson Jensen, Vali Tawosi, Salwa Alamir

背景

コードレビューは、ソフトウェア開発プロセスの中心的な役割を果たしています。例えばバグを減らし、コードの品質を向上させるといったものです。しかし、コードレビューを実行するのには費用がかかり、あるいは面倒な場合があります。さらに、レビューが適切に行われない場合、逆効果を及ぼす場合もあります。

これまで、コードレビューを自動化する方法が研究されてきましたが、その成功は控えめなものでした。そこで白羽の矢が立っているのがLLMです。今回研究者らは、LLMがコードレビューをどのように支援できるかを調査しました。調査対象となったモデルは、Dolly、Falcon、Llama、GPTファミリーです。

なお、本来コードレビューにはさまざまなタスクがありますが、今回は2つのタスクに焦点が当てられました。

  1. セキュリティ脆弱性のあるコードにフラグを立てること
  2. ソフトウェアの機能検証(コードが意図した機能を満たしていることを確認すること)

問題は以下の4つでした。

  1. LLMはコードのセキュリティ脆弱性にフラグを立てることができるか?
  2. LLMはソフトウェアの機能検証を行うことができるか?
  3. LLMはセキュリティ脆弱性にフラグを立て、同時にソフトウェアの機能検証を行うことができるか?
  4. LLMはセキュリティ脆弱性に関するフィードバックを提供できるか?

以下で結果を詳しく紹介します。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に

💬 プレミアム会員ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

記事検索

年/月/日
年/月/日

関連記事