50歳、女性、自民党支持、東京在住。たったこれだけの情報をプロンプトに詰め込んで、「この人になりきって答えて」とLLMに頼んでみます。すると、似た属性の人はみな同じ答えを返し、現実にある人間同士の意見のバラつきが消え失せます。世論シミュレーション研究の多くが、こうした属性ベースのアプローチを採ってきました。
本記事では、より効果的な手法の仕組みと実験結果を共有し、LLMによる世論シミュレーションの現在地と実務上のインパクトを考えます。
年齢・性別・学歴だけに頼る方式と比べて、回答精度はどれだけ変わるか。「バーチャル国民」に世論調査を答えさせたとき、実際の調査データとどこまで一致し、どこでずれるか。

属性だけでは「その人」にならない
世論調査のシミュレーションにLLMを使う試みは、ここ数年で急速に増えています。よく使われるのが、年齢、性別、人種、学歴、所得、政治思想、都市か郊外かといった属性をプロンプトに渡し、「この属性の人物として答えてください」とモデルに指示します。一見もっともらしく見えますが、根っこに大きな問題があります。