次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

基盤モデル時代の倫理的でユーザー適応型の説明可能性を備えたソーシャルロボットの設計

原題: Designing Social Robots with Ethical, User-Adaptive Explainability in the Era of Foundation Models
著者: Fethiye Irmak Dogan, Alva Markelius, Hatice Gunes
公開日: 2026-02-17 | 分野: LLM ロボティクス 安全性 解釈性 人間 デザイン

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 基盤モデルがソーシャルロボットに組み込まれ、行動や適応を仲介する現状を分析しました。
  • 従来の画一的な説明戦略が抱える問題を指摘し、倫理的でユーザーに適応した説明可能性の重要性を示しました。
  • 小規模で公平なデータセットに基づいた、ユーザー適応型でモーダル対応の共同設計された説明戦略を提案しました。

Abstract

Foundation models are increasingly embedded in social robots, mediating not only what they say and do but also how they adapt to users over time. This shift renders traditional ``one-size-fits-all'' explanation strategies especially problematic: generic justifications are now wrapped around behaviour produced by models trained on vast, heterogeneous, and opaque datasets. We argue that ethical, user-adapted explainability must be treated as a core design objective for foundation-model-driven social robotics. We first identify open challenges around explainability and ethical concerns that arise when both adaptation and explanation are delegated to foundation models. Building on this analysis, we propose four recommendations for moving towards user-adapted, modality-aware, and co-designed explanation strategies grounded in smaller, fairer datasets. An illustrative use case of an LLM-driven socially assistive robot demonstrates how these recommendations might be instantiated in a sensitive, real-world domain.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事