「AIが人をあざむく力は現実のものとして理解し対策を考えなければいけない」との見方が主張されています。
MITなどの研究グループによる報告です。
○ Peter S. Park et al. AI Deception: A Survey of Examples, Risks, and Potential Solutions
社会全体に影響を与える危険性がある、AIの欺瞞(ぎまん)性=人をあざむく力について、理解と対策が急がれています。
研究者らは、根拠となる事例がいくつかあると述べています。
■事例1. CICERO(Metaが開発)
① Diplomacyというゲームで他のプレイヤーを欺く高度な戦術を展開した
② 偽の同盟を結ぶなど、事前に計画された欺瞞性を持っている
■事例2. GPT-4
② CAPTCHAの「I’m not a robot」タスクを解決するために、視覚障害を持つ人間だと偽って人間にタスクを行わせたケースがある
②テキストベースの冒険ゲームで嘘をついて成功するなど、戦略的に欺瞞性を用いることがある
また、AIの欺瞞リスクと解決策はカテゴリ分けができるとのことです。
■リスクのカテゴリ
① 悪用(選挙妨害など)
② 社会構造への影響(極端なイデオロギーの形成など)
③ 制御の喪失(安全性テストを欺くなど)
■解決策のカテゴリ
① 規制
② Bot-or-not法(AIと人間を明確に区別する法律)
③ 欺瞞性を検出する技術の開発
AIが人間の社会や個々の行動に与える影響を深く理解し、それに対処する方法を見つけることが重要だと締められています。