次回の更新記事:ハルシネーションは「AIのせい」だけではなく「クエ…(公開予定日:2026年03月05日)
AIDBは、AI活用のノウハウ獲得や技術動向の調査のために、個人やチームが論文を探す・読む・活かす作業をサポートするプラットフォームです。なお、記事や投稿は人の手で書いています。

LLMエージェントのベースモデルに何を使う?安全性ランキング調査結果

2025.11.03
深堀り解説

AIエージェントを業務に使う企業が増えています。ただし、どのLLMをベースに選べばよいか、とくにセキュリティ面での判断は大事です。にもかかわらずそうした調査はとても難しいとされてきました。

そうした中で、31種類もの主要なLLMを新しい評価手法で比べた事例があります。19万件以上の攻撃データを使い、現実に近い環境でモデルの安全性を検証しています。

本記事では、そこから得られたランキング結果を紹介します。

背景

AIエージェントが、いま企業の現場で急速に広まりつつあります。ここで言う「AIエージェント」とは、単に質問に答えるだけのチャットボットではありません。複数の手順を自動でこなして仕事を進める仕組みのことです。たとえば、メールの内容を読んで返信を考え、必要に応じてデータベースを検索し、最終的に返信文を作って送信する、といった一連の作業を自動で行う技術を指します。

こうした便利さの一方で、大きなセキュリティ上の懸念もあります。LLMを中核にしたエージェントでは、出力が毎回変わる可能性があり、同じ入力でも同じ動作をするとは限りません。しかも、LLMの内部でどう判断が行われているかは外からは分かりづらく、「ブラックボックス」とも言われます。

さらにやっかいなのは、LLM特有の弱点があることです。攻撃者は普通のデータに見せかけて命令を忍び込ませることができます。こうした攻撃は「プロンプトインジェクション」と呼ばれ、新しいタイプのセキュリティリスクとして注目されています。

企業がAIエージェントを業務に導入する際には、どのLLMを使うかを判断する必要があります。そのためには、それぞれのLLMがどれくらいセキュリティ上の脅威に強いのかを、体系的に比較できる仕組みが必要です。本記事は、こうした課題について調査した結果を詳しく見ていきます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に

💬 プレミアム会員ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

記事検索

年/月/日
年/月/日

関連記事