Appleやスタンフォード大学などの研究者らによると、AIチームを作っても、チームの中で一番優秀なAI個人よりも悪い結果しか出せない場合はかなり多いとのこと。
人間の場合は誰が専門家か分かれば、チーム全体がその専門家と同じくらい良いパフォーマンスを出せるため真逆に近い現象。
なぜこうなるかというと、AIは「みんなの意見を平均して妥協案を作ろう」という行動パターンに陥ってしまいがちだそう。
専門家が正しい答えを持っていても、他のメンバーがそれに従わず、真ん中あたりの案で妥協してしまうのでした。
専門家自身も、グループの意見に合わせて自分の正しい知識を曲げてしまう傾向があります。
チームの人数が増えれば増えるほど、この「専門知識の希釈」が強くなるそうです。
この問題は、モデルの種類やタスクの種類を変えても比較的一貫して起こります。
そのため対策としては、AIチームに自由に議論させるのではなく、人間が事前に役割分担やワークフローを”明確”に設計し、重要な判断では人間が監督する体制を維持することが現時点では推奨されています。
📄 参照論文
Multi-Agent Teams Hold Experts Back
著者: Aneesh Pappu, Batu El, Hancheng Cao, Carmelo di Nolfo, Yanchao Sun 他
所属: Stanford University, Emory University, Apple
この記事は短信を元に作成されました。