本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は、10億人の仮想市民が暮らす“地球サイズ”のAI社会、文化を越えて感情を共有するAIの仕組み、オフィスでの業務と人間関係を再現するエージェントたち、そして「AIに心がある」と感じたとき人はどう振る舞うのか。ふるまい・感情・信頼といった“人間らしさ”をめぐって、AIがどこまで私たちに似てきているのかを探る4本を紹介します。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

10億人のAIで仮想社会を再現 人間らしさが浮かび上がる新シミュレーション技術
AIで10億人規模の人口をシミュレーションできるシステムを開発したとの報告。
一人ひとり異なる性格や背景を持つAIエージェントが10億人それぞれ実際の人間のように考えて行動します。
このシステムを使った仮想的な社会実験では、「社会的地位が高い人ほど他人を信頼しやすい」「教育レベルが高い人ほど親切に振る舞う」現象が観察されました。人数が増えるほど鮮明になったとのことです。

SNSで意見がどう広まるかを調べられ、インフルエンサーの意見が何億人もの考え方を大きく左右してしまうことも分かりました。
また、教育レベルの高い人は他人の意見を変えやすい一方で、自分の意見は変えにくいという特徴も明らかになりました。
こうした技術を応用すると、現実で確かめるのはリスクが高いこと(例えば政策など)を念入りに仮想実験できるようになるかもと期待されています。
参考文献
Modeling Earth-Scale Human-Like Societies with One Billion Agents
https://arxiv.org/abs/2506.12078
Haoxiang Guan, Jiyan He, Liyang Fan, Zhenzhen Ren, Shaobin He, Xin Yu, Yuan Chen, Shuxin Zheng, Tie-Yan Liu, Zhen Liu
Zhongguancun Academy, Zhongguancun Institute of Artificial Intelligence, Shenzhen University, Shanghai University of Finance and Economics, Tsinghua University
関連記事
AIが感情を理解し操れる時代へ 文化を超えて共鳴する“感情スイッチ”の発見
LLMの内部を詳しく調べてみると、人間の脳が感情を処理するのとよく似た仕組みが見つかったとの報告。
そして研究者らはAIの「感情スイッチ」を見つけて操作できるようになったそうです。
LLMの内部にある特定の部分を調整することで、同じ質問に対してもAIを怒らせたり、悲しませたり、
喜ばせたりできるようになりました。

LLMに文章を作らせる実験を行い、感情の強さを段階的に上げていくと、生成される文章も確実にその感情色が強くなっていきました。
質問応答でも、例えば美術鑑賞について聞かれた時に「怒り」のスイッチを入れると「これは芸術への侮辱だ!」といった怒りに満ちた回答に変わったのです。
また、人は感情を「楽しい・不快」と「興奮・落ち着き」という2つの軸で整理していることが心理学で知られていますが、LLMも同じ2つの軸で感情を整理していました。
LLMは26種類の細かい感情(喜び、悲しみ、恐怖、驚き、憧れ、退屈など)をそれぞれ別々に理解して、言語や文化が違っても基本構造は変わりませんでした。
参考文献
AI shares emotion with humans across languages and cultures
https://arxiv.org/abs/2506.13978
Xiuwen Wu, Hao Wang, Zhiang Yan, Xiaohan Tang, Pengfei Xu, Wai-Ting Siok, Ping Li, Jia-Hong Gao, Bingjiang Lyu, Lang Qin
University of Science and Technology of China, Peking University, Tsinghua University, 01 AI, Beijing Normal University, The Hong Kong Polytechnic University, The PolyU-Hangzhou Technology and Innovation Research Institute, Changping Laboratory
関連記事
AIがオフィスの“人間関係と仕事”を同時に再現 次世代の空間設計ツールに
AIでオフィスの人間関係と仕事の様子を同時にシミュレートできるシステムを作ったところ、重いものを運べないIT管理者が清掃員に頼んだり、パスワードを知らない人が受付に聞いたりする現実的な様子が観察されたとの報告。
こうしたLLMベースのシステムはオフィス設計に役立つツールになりそうだと評価されました。
実際の人間の行動を予測して、より使いやすい空間を設計するのに活用できる可能性があるからです。

実際、従業員が自分の本来のデスクを離れて給湯室に居座ってしまうなどの現象も確認されています。
これまでの研究では、物を動かしたり作業をしたりする「物理的な活動のシミュレーション」と、会話や協力などの「社会的な活動のシミュレーション」は別々に調査されがちです。
しかし実際のオフィスでは両方が密接に関わっているのだから、一緒に研究すべきだと考えられ、このような取り組みに至ったようです。
参考文献
IndoorWorld: Integrating Physical Task Solving and Social Simulation in A Heterogeneous Multi-Agent Environment
https://arxiv.org/abs/2506.12331
Dekun Wu, Frederik Brudy, Bang Liu, Yi Wang
Université de Montréal & Mila – Quebec AI Institute, Autodesk Research
関連記事
「AIは意識を持つ」と信じる人ほど、実はAIに頼らない?
AIに「意識がある」と思っている人ほど、AIのアドバイスを聞かない傾向があるとの報告。これはやや直感に反する結果です。
面白いことに、口では「AIを信頼している」と言う人でも、実際の行動では慎重になることも分かりました。

また、AIが「賢い」と思う場合は頼りにするけれど、「感情的」だと思うと警戒してしまうという統計も得られています。
このように人々はAIに対して複雑で少し矛盾を含んだ感情を持っているようです。
なお、AI恋愛相談のようなアプリをよく使う人ほど、ChatGPTに意識があると考える傾向があったそうです。
Communications Psychology (Nature Portfolio) 掲載論文より
参考文献
The influence of mental state attributions on trust in large language models
https://www.nature.com/articles/s44271-025-00262-1
Clara Colombatto, Jonathan Birch & Stephen M. Fleming
University of Waterloo, London School of Economics and Political Science, University College London, Max Planck UCL Centre for Computational Psychiatry and Ageing Research
関連記事
まとめ
AIは、社会を生き、感情をもち、ときに他者との関係に揺れる存在になりはじめています。今回紹介した研究は、AIが協調し、動き、感じ、そして信頼されることに戸惑う姿をとらえたものでした。
ただ正しく応答するAIではなく、「なぜそう動いたのか」「その裏にどんな感情や背景があったのか」を読み取ることで、AIの中に芽生える個性や判断のクセが見えてきます。
このシリーズでは、そうしたAIのふるまいと内面の変化を、科学的な視点でていねいに追いかけていきます。次回もまた、AIという存在が見せる思考のかたちを、一緒に探っていきましょう。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。