Loading [MathJax]/extensions/tex2jax.js
次回の更新記事:標準作業手順書(SOP)をもとにLLMエージェントシス…(公開予定日:2025年03月31日)

セキュリティ

外部LLMを利用するときに機密情報を含む可能性のあるプロンプトからの情報漏洩を防ぐ方法
LLMアプリケーション(LLMを利用したシステム)の安全評価方法・レッドチーミングの進め方
生成AIシステムのセキュリティ評価 マイクロソフトが100事例から得た教訓
LLMに対するオープンソース安全性評価ツールの比較
LLMにおける現状のリスクと対策に関するまとめ
LLMのサイバーセキュリティタスク性能評価フレームワーク「Cybench」
Googleなど、API経由でブラックボックスLLMの隠れ次元数を特定できる脆弱性を示す ※OpenAI社はこれを受け対策済み
GPT-4などのLLMがセキュリティ脆弱性とソフトウェア機能性の評価能力で高い精度を示す
外部からの攻撃で一度でも欺瞞を学んだLLMは現在の技術では完全回復が難しい
大規模言語モデル vs 小規模人間モデル(つまり人間)で「フィッシング詐欺メールバトル」を行った結果
キーボード打鍵音から入力文字を特定するハッキング技術の精度が高いことが判明
瞳に映る景色を3Dで再現 その可能性
ダークウェブの深淵を照らす言語モデル「DarkBERT」登場
AIに含まれるバイアスを検出・軽減するためのオープンソースライブラリ「AIF360」登場
大規模言語モデルの毒に用心を データポイズニングのリスク

プロフィールを登録すると
仕事のオファーが届きます

プロフィール登録
PAGE TOP