次回の更新記事:Cursorはソフトウェア開発を加速する?導入後の実態…(公開予定日:2025年11月11日)

LLMエージェントのベースモデルに何を使う?安全性ランキング調査結果

   

AIエージェントを業務に使う企業が増えています。ただし、どのLLMをベースに選べばよいか、とくにセキュリティ面での判断は大事です。にもかかわらずそうした調査はとても難しいとされてきました。

そうした中で、31種類もの主要なLLMを新しい評価手法で比べた事例があります。19万件以上の攻撃データを使い、現実に近い環境でモデルの安全性を検証しています。

本記事では、そこから得られたランキング結果を紹介します。

背景

AIエージェントが、いま企業の現場で急速に広まりつつあります。ここで言う「AIエージェント」とは、単に質問に答えるだけのチャットボットではありません。複数の手順を自動でこなして仕事を進める仕組みのことです。たとえば、メールの内容を読んで返信を考え、必要に応じてデータベースを検索し、最終的に返信文を作って送信する、といった一連の作業を自動で行う技術を指します。

こうした便利さの一方で、大きなセキュリティ上の懸念もあります。LLMを中核にしたエージェントでは、出力が毎回変わる可能性があり、同じ入力でも同じ動作をするとは限りません。しかも、LLMの内部でどう判断が行われているかは外からは分かりづらく、「ブラックボックス」とも言われます。

さらにやっかいなのは、LLM特有の弱点があることです。攻撃者は普通のデータに見せかけて命令を忍び込ませることができます。こうした攻撃は「プロンプトインジェクション」と呼ばれ、新しいタイプのセキュリティリスクとして注目されています。

企業がAIエージェントを業務に導入する際には、どのLLMを使うかを判断する必要があります。そのためには、それぞれのLLMがどれくらいセキュリティ上の脅威に強いのかを、体系的に比較できる仕組みが必要です。本記事は、こうした課題について調査した結果を詳しく見ていきます。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP