LLMなどの生成AIの背後にある思考プロセスは人間とは全く異なるかもしれない、という仮説が提唱されました。
生成AIは、自分自身が作り出したものについて質問されても、しばしば間違えてしまうからです。
『生成AIのパラドックス』仮説と定義されました。
ワシントン大学の研究者らによる報告です。
@ Peter West et al., “THE GENERATIVE AI PARADOX: ‘What It Can Create, It May Not Understand’”
現在の生成モデルは専門家を凌駕するほどの出力をする一方で、とても簡単なことで間違えてしまいます。
「生成に「理解」を必要としていない」とすれば、人間とはかなり異なる特徴です。
そこで研究者らは『生成AIのパラドックス』仮説を立てて、人間と生成AIの違いを明確にしようと試みました。
■『生成AIのパラドックス』仮説とは
定義:AIが人間のような出力を生成できるが、それを理解する能力は必ずしも伴わない
言語能力の例:GPT-4は魅力的な物語を生成できる。しかしその物語に対して質問されても答えられない
画像生成の例:MidJourneyは人間の能力を超える画像を生成できる。しかし正しい生成物がどれなのかは分からない
仮説のコア:
① 人間とAIの知能の構成には違いがある
② AIは訓練目標、入力の大きさや性質が大きく影響する
③ AIの能力マップは人間のそれとは大きく逸脱している
■今後の検証課題
① 生成タスクと識別タスクのパフォーマンスのさらなる比較分析を行う
② モデルの理解能力の限界を明らかにする
③ 人間とAIの生成能力を同等とした場合の識別能力の比較を行う
④ 人間の識別能力がモデルよりも堅牢であることを改めて検証する
⑤ 人間とAIの学習プロセスの違いをさらに探究する