判断に困る質問をChatGPTとClaudeに投げて、微妙に違う答えが返ってきた経験はないでしょうか。一方は踏み込んだ意見を述べ、もう一方はやんわりと回答を避ける。あるいは、どちらも「バランスのとれた」回答をしているはずなのに、なぜかトーンが違う。
あの違和感は、気のせいではありません。
最近の研究が次々と明らかにしているのは、LLMにはモデルごとに固有の「性格」があり、開発元の思想や文化がその振る舞いに染み込んでいるという事実です。
「じゃあ中立なモデルを選べばいい」と思うかもしれません。しかし話はそう単純ではありません。何が「中立」なのかを定義すること自体が、実は答えの出ない問いだからです。

この話題がいま重要な理由
LLMは検索結果の要約、メール下書き、レポート作成、コード生成と、私たちの仕事のあらゆる場面に入り込みつつあります。つまり、日々の判断材料をLLMが下ごしらえしている状況がすでに始まっています。その下ごしらえに偏りがあるとしたら、私たちは気づかないまま偏った判断をしていることになります。
しかし「偏りを直せばいい」で済む話ではありません。そもそも何が「中立」なのかを定義すること自体が難解な問いです。
今回は5つの研究をもとに、この問題がどれほど根深いかを、それぞれ異なる角度から浮き彫りにしています。モデルごとの「偏りの違い」の正体を解き明かし、LLMとの付き合い方を考えていきます。