次回の更新記事:ハルシネーションは「AIのせい」だけではなく「クエ…(公開予定日:2026年03月05日)
AIDBは、AI活用のノウハウ獲得や技術動向の調査のために、個人やチームが論文を探す・読む・活かす作業をサポートするプラットフォームです。なお、記事や投稿は人の手で書いています。

LLMの性格はユーザーにとってどれほど重要?調査結果

2025.09.17
深堀り解説

本記事では、LLMを使った対話エージェントの性格表現の調整結果を検証した研究を紹介します。

評価のポイントには、知性や信頼感、人間らしさなどが含まれ、ユーザー自身の性格との相性もあわせて調べられました。

実際のサービス設計にどう活かせるかを考えるきっかけになればと思います。

背景

コンピューターと人が会話するという発想は、実はかなり昔からあります。1966年に登場した「ELIZA」というプログラムは、その最初の例の一つです。仕組みはとてもシンプルで、決まった言葉に反応して決まった返事をするだけでした。意味を理解しているわけではありません。それでも、多くの人がELIZAをあたかも人間のように感じ、まじめに会話を続けてしまうのでした。開発者の秘書でさえ、一人でELIZAと話せるようにしてほしいと頼んだといいます。

このように、人は相手が機械だとわかっていても、つい人間のように接してしまう傾向があります。

現在では、ChatGPTやClaude、GeminiなどのLLMを使った対話エージェントが広く使われています。旅行の相談から創作のサポートまで、さまざまな場面で人と関わるようになりました。こうしたエージェントは、言葉づかいや話し方に独特の「らしさ」があり、それが人から「性格」として受け取られることがあります。各社は「やさしい」「有能」「安全」と感じられるエージェントをめざして設計を進めていますが、実際にどのような性格表現が、どんな影響を与えるのかは、まだ十分には分かっていません。

また、性格の「合う・合わない」がやりとりの良し悪しに影響するという考え方もあります。ユーザーと似た性格のエージェントのほうが好まれる、という仮説は昔からありますが、実際の研究結果は一様ではありません。似ているより、むしろ自分とは違う性格のエージェントに魅力を感じる場合もあります。

そこで本記事では、性格をよりきめ細かく調整できる新たなプロンプト手法を開発した上で「性格の強さとユーザーとの相性」が対話にどのように影響するのかを調べた事例を取り上げます。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に

💬 プレミアム会員ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

記事検索

年/月/日
年/月/日

関連記事