OpenAIは、DALL·E 3の論文を通して「画像生成AIの安全性は前進した」ことを報告しています。

   

さらに、DALL·E 3生成画像の検出/追跡技術を開発中と発表しています。

DALL·E 3は現在、Bingでの実装、ChatGPTへの段階的な実装でその優れた性能に注目が集まっています。

@ OpenAI, “DALL·E 3 System Card”

重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。



これまでの画像生成モデルや早期のDALL·Eには、次のような課題がありました。
・文脈を無視した有害な出力(医療の文脈で不適切な画像など)
・公共の人物、人種や性別へのバイアス
・誤情報や偽情報を生成
・現実的でない美容基準に基づく不健康な体型を表現

OpenAIは上記リスクに対する具体的な対策を行なっています。

※本記事は研究の概要を手早く把握するためのカジュアルな紹介記事です。

DALL·E 3での安全対策

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP