次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

誰が公平性を定義するのか?生成モデルにおける人口統計学的表現のためのターゲットベースプロンプティング

原題: Who Defines Fairness? Target-Based Prompting for Demographic Representation in Generative Models
著者: Marzia Binta Nizam, James Davis
公開日: 2026-04-22 | 分野: LLM コンピュータビジョン AI 公平性 cs.AI プロンプトエンジニアリング 生成モデル

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究は、テキストから画像を生成するモデルにおける人口統計学的表現の偏りを、モデルの再学習なしにプロンプトレベルで軽減する手法を提案した。
  • 既存手法と異なり、単一の公平性定義に依存せず、ユーザーが多様な公平性仕様を選択できる点が新規的である。
  • 提案手法は、指定されたターゲットに沿って肌の色分布を調整し、生成AIの利用者が公平性を透明かつ制御可能に介入できることを示した。

Abstract

Text-to-image(T2I) models like Stable Diffusion and DALL-E have made generative AI widely accessible, yet recent studies reveal that these systems often replicate societal biases, particularly in how they depict demographic groups across professions. Prompts such as 'doctor' or 'CEO' frequently yield lighter-skinned outputs, while lower-status roles like 'janitor' show more diversity, reinforcing stereotypes. Existing mitigation methods typically require retraining or curated datasets, making them inaccessible to most users. We propose a lightweight, inference-time framework that mitigates representational bias through prompt-level intervention without modifying the underlying model. Instead of assuming a single definition of fairness, our approach allows users to select among multiple fairness specifications-ranging from simple choices such as a uniform distribution to more complex definitions informed by a large language model(LLM) that cites sources and provides confidence estimates. These distributions guide the construction of demographic specific prompt variants in the corresponding proportions, and we evaluate alignment by auditing adherence to the declared target and measuring the resulting skin tone distribution rather than assuming uniformity as 'fairness'. Across 36 prompts spanning 30 occupations and 6 non-occupational contexts, our method shifts observed skin-tone outcomes in directions consistent with the declared target, and reduces deviation from targets when the target is defined directly in skin-tone space(fallback). This work demonstrates how fairness interventions can be made transparent, controllable, and usable at inference time, directly empowering users of generative AI.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事