OpenAIは、DALL·E 3の論文を通して「画像生成AIの安全性は前進した」ことを報告しています。

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

さらに、DALL·E 3生成画像の検出/追跡技術を開発中と発表しています。

DALL·E 3は現在、Bingでの実装、ChatGPTへの段階的な実装でその優れた性能に注目が集まっています。

@ OpenAI, “DALL·E 3 System Card”


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

これまでの画像生成モデルや早期のDALL·Eには、次のような課題がありました。
・文脈を無視した有害な出力(医療の文脈で不適切な画像など)
・公共の人物、人種や性別へのバイアス
・誤情報や偽情報を生成
・現実的でない美容基準に基づく不健康な体型を表現

OpenAIは上記リスクに対する具体的な対策を行なっています。

※本記事は研究の概要を手早く把握するためのカジュアルな紹介記事です。

DALL·E 3での安全対策

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP