o1モデルのリスク評価結果を受け、OpenAIの開発グループは「段階的に浸透させて皆の意見を取り入れたい」と述べています。
https://t.co/ENctpG7LV2
一例として、o1モデルはいわゆる「陰謀」的戦略を内部で実行し得ることが示唆されています。
(ユーザー目標と食い違う独自目標を密かに追求する行動をとること)
ただしo1のエージェント機能は十分でないため、これが恐ろしい事態につながる可能性は低いと考えられています。
AIの秘匿戦略:OpenAIとClaudeのリスク評価
📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。