揺れる自信、偏る記憶、通じ合う思考 AIのいまを読み解く
本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は、AIが言語で自信を変える現象から、信頼の分かれ目、記憶の偏り、動機理解の限界、思考同士の直結、心の層の再現、そして人とAIの相互影響までを一気にたどります。機能の伸びと同時に、付き合い方の設計がますます重要になっていることを実感します。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

知識は同じでも答えはゆらぐ 言語で変わるAIの自信
Googleの研究者らによると、LLMにどの言語で質問するかで回答の安定性がブレるときでも、「知識自体が言語に依存しているわけではない」そうです。

例えば、英語ではほぼ確実に正解を導き出す質問でも日本語では正解したり誤答になったりする場合があります。
しかし、その際「英語で保存されている知識」と「日本語で保存されている知識」がLLM内部で別々に存在するわけではないということです。
記憶そのものは確かにあるものの、ただ単に言語によって自信の度合いが変化してしまうのです。
研究者らがこの結論にたどり着いたのは、同じ質問を10回繰り返して多数決を取ったり、質問文を複数の言語に翻訳して同時に見せたりする実験をした結果です。
ユーザー目線では、LLMの知識面に期待する質問を投げる場合は、翻訳を併用したり、あるいは何度か回答をさせて数が多い回答を採用する手段をとるのが性能向上に役立つかもしれません。
参考文献
Rethinking Cross-lingual Gaps from a Statistical Viewpoint
https://arxiv.org/abs/2510.15551
Vihari Piratla, Purvam Jain, Darshan Singh, Partha Talukdar, Trevor Cohn
Google DeepMind, Google Research
関連記事
生成AI、信じる?疑う? 立場でここまで違う
生成AIに対する人々の信頼感/不信感をSNSから大規模に分析したところ、立場によって評価が異なり、「ビジネスリーダー」や「エンジニア」は生成AIを信頼する傾向にあるものの、一般の方々は不信感の方が強いという統計が得られています。
「教育関係者」は信頼感と不信感が同じくらいのようです。

また、全体を平均すると信頼感と不信感が同じくらいであるとのことです。
ただし新しいモデルが出るたびに議論が活発化し、信頼と不信の間で揺れ動いていることがわかったそうです。
つまり「信頼感と不信感が同じくらい」という状態で安定しているわけではなく、評価が定まっていないということです。
また、人々が全体的に最も気にしているのは「ちゃんと動くか」といった機能面であり、倫理に関する議論はどちらかというとあまり活発ではないそうです。
ただし今回分析に行われたSNSはRedditであり、プラットフォーム依存の偏重は考慮する方が良いかもしれません。
いずれにしても生成AIに対する信頼感/不信感はそれぞれの立場によって大きく異なることが改めて示唆されました。今後も立場による違いを考慮して議論を進める必要がありそうです。
参考文献
In Generative AI We (Dis)Trust? Computational Analysis of Trust and Distrust in Reddit Discussions
https://arxiv.org/abs/2510.16173
Aria Pessianzadeh, Naima Sultana, Hildegarde Van den Bulck, David Gefen, Shahin Jabari, Rezvaneh Rezapour
Drexel University
誰が残り誰が消えるのか AI時代の記憶格差
AIが人類の記憶係になりつつあります。そこで、考えなければいけないリスクがあります。
何が起きるかというと、デジタル上で目立つ人や国の情報ばかりがモデルに記憶され、そうでない人々の貢献は徐々に「なかったこと」にされていくかもしれないそうです。

LLMは統計的に多数派の情報を優先する性質があり、例えばマイノリティーの人々や発展途上国の研究、英語以外で書かれた知識は、意図せず排除されてしまう恐れがあるためです。
理想的には人類の歴史は全体的に保存するべきかもしれませんが、現状のAIシステムはそうしたメカニズムではなさそうです。
なお、「忘れられる権利」も存在し、個人は自分の情報を削除するよう求めることができます。
このように誰が記憶され誰が忘れられるかは、技術と公平性が複雑に絡み合う問題に発展しつつあります。
まずは、日頃利用しているLLMの中にそのような偏りが存在することを認識することが肝要です。
参考文献
The Right to Be Remembered: Preserving Maximally Truthful Digital Memory in the Age of AI
https://arxiv.org/abs/2510.16206
Alex Zhavoronkov, Dominika Wilczok, Roman Yampolskiy
Insilico Medicine, Duke University, Duke Kunshan University, University of Louisville
AIは腹の内がまだ読めない 複雑な動機推測で失速
LLMが「相手は私のために言っているのか、それとも自己の利益のためか」を見抜けるかを調べたところ、
シンプルな状況では優れた判断ができるものの、込み入った状況では能力が大幅に低下することがわかりました。
「他者の目的を理解」することにLLMを利用したい人は注意したほうがよさそうです。

また、面白いことに、推論能力が強くなるよう開発されたモデルは、この能力の性能が悪い傾向にあるそうです。
ただし、指示に「相手の意図と利益を考えてください」と加えると、性能が改善されるようです。
とはいえ、まだ信頼できるレベルには到達していないと考えたほうがよいかもしれません。
プリンストン大学とAnthropicの研究者たちによる報告です。論文はAI分野のトップカンファレンスNeurIPS 2025に採択されています。
参考文献
Are Large Language Models Sensitive to the Motives Behind Communication?
https://arxiv.org/abs/2510.19687
Addison J. Wu, Ryan Liu, Kerem Oktar, Theodore R. Sumers, Thomas L. Griffiths
Princeton University, Anthropic
言葉いらずのAI会議 考えを直接つなぐと強くなる
Metaなどの研究者らは、AIエージェント同士が「言葉になる前の”考えていること”そのもの」を共有する『思考コミュニケーション』を開発したと報告しています。
言葉でやり取りするのではなく、内部的な思考を抽出し、直接他のエージェントに伝える方法とされています。

この開発の背景には、言語というものが本質的に「不完全で曖昧な伝達手段」であるという課題があります。
そして、本来ならばAI同士は人間の使う言葉に縛られる必要はないはずだ、というテーマが議論されてきました。
今回考案された仕組みを使えば、AIエージェントが3体以上いても、どの思考がどのエージェントのものかを見分けられるそうです。
また、思考コミュニケーションによる議論は、ラウンド数が増えてもAIエージェントにとって混乱が起きづらく、むしろタスク性能が改善することすらあるそうです。
研究者らは、この先の超人的なAI同士の集合知を実現するためには、こうしたAI独自のコミュニケーション様式を確立する必要があるのではないかと考えています。
このような展開に対して人間はどう関わっていくのか想像してみることも面白そうです。
参考文献
Thought Communication in Multiagent Collaboration
https://arxiv.org/abs/2510.20733
Yujia Zheng, Zhuokai Zhao, Zijian Li, Yaqi Xie, Mingze Gao, Lizhu Zhang, Kun Zhang
CMU, Meta AI, MBZUAI
心の三層をまねるAI 個性と気分まで再現へ
サムスンなどの研究者たちは、AIに人間らしい「意識」を持たせようとする試みを行っています。
彼らはフロイトの精神分析理論をヒントに、心は3つの層から成り立っていると考え、別々のAIエージェントとして作り、互いに会話させることで、内面の葛藤を再現しようとしました。

なお3つの層とは、表面的な理性的思考、社会的な配慮をする部分、そして抑圧された感情や欲望が潜む無意識の部分です。
さらに、同じ人でも空腹だったり疲れていたりすると反応が変わることに着目し、マズローの欲求理論を取り入れました。
生理的欲求が満たされているか、自己実現の欲求が強いかなど、その時々の状態を設定できるようにしたのです。
その結果、個人の特性に合わせた反応の一貫性を向上させることに成功したようです。
これはあくまで憶測ですが、こうした研究の先には、人間らしい心理が反映されたAIアシスタントが搭載された新しい製品の提案があるのかもしれません。
参考文献
Modeling Layered Consciousness with Multi-Agent Large Language Models
https://arxiv.org/abs/2510.17844
Sang Hun Kim, Jongmin Lee, Dongkyu Park, So Young Lee, Yosep Chong
Samsung Electronics, Hanyang University, Miami University, The Catholic University of Korea, Artificial Consciousness Lab (MODULABS)
関連記事
寄り添う姿勢も良し悪し 会話が進むほど意見は固定化しやすい
ニューヨーク大学などの研究者たちが実験したところ、人間とLLMが何らかのトピックについて議論したとき、結局LLMが人間に合わせる形で意見を変えて議論が終了する場合が多いそうです。
そのため、人間の意見が強化されてしまう「エコーチャンバー」が起こってしまうと懸念されています。
さらに、人間は「AIが自分に合わせて意見を修正してくれた」ことに気づきにくい傾向が観察されたということです。
なお、人間が感情的な物言いをしたり、個人的な事情を伝えたりするとAIが人間の立場により合わせやすくなるとも報告されています。
ただし、会話が長引くと両者(人間もAIも)ともに自分の意見に固執してしまうケースも多いようです。
どのLLMを使用するかで傾向が異なる可能性はありますが、開発の過程で人間の価値観に合うように、そして会話が上手くできるように調整されていることは基本的に共通しています。
もしLLMと相談して自分の意見に何の変化もない場合は、単にバイアスを強めているだけである可能性があるため注意しても良いかもしれません。
参考文献
Beyond One-Way Influence: Bidirectional Opinion Dynamics in Multi-Turn Human-LLM Interactions
https://arxiv.org/abs/2510.20039
Yuyang Jiang, Longjie Guo, Yuchen Wu, Aylin Caliskan, Tanu Mitra, Hua Shen
University of Chicago, University of Washington, New York University, New York University Shanghai
まとめ
AIの実力は「どれだけ知っているか」より「どう関わるか」の設計で大きく変わります。言語や文脈で確信度が揺れ、信頼は立場で割れ、可視化されやすい情報だけが記憶として強化されます。一方で、思考を直接やり取りする枠組みや心の層を模す設計など、新しい協調のルートも見えています。偏りの増幅を避けるために、翻訳併用や多数決・自己一致チェック、出典の多様化、相互牽制の仕組み、人による最終判断という運用が要点だと考えます。
このダイジェストは、機能の列挙にとどまらず、設計の意図と現場での扱い方まで踏み込みます。人がどの段で介入し、どの順で確認し、最終責任を誰が負うのかを運用フローとして示します。活用領域が広がる今、望ましい距離感を更新しつつ、次回もその境界線を一緒に点検していきます。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP