「人間に対する信頼」が低い人ほどLLMを頼る傾向が強い、という調査結果
本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は人と社会のふるまいをどう写し取るかという視点から最新の動きをまとめます。購買行動の再現や分身AIとの対話、法制度や工場作業のチェックなど、現場に効く工夫が見えてきました。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

人を信じられないときAIに頼る理由
「人間に対する信頼」が低い人ほどLLMを頼る傾向が強い、という調査結果が報告されています。
ここで言う人間とは周りの大人や友人を指します。

人間に失望した人が「せめてLLMなら中立的で偏見がないだろう」と期待して頼りにする心理メカニズムだと考察されています。一種の代替行動です。
ただし、どんな質問をするかによって選択が変わります。
事実を知りたいときはLLMが圧倒的に選ばれるものの、感情的・道徳的な問題では相談相手として人間が選ばれがちです。
なお、テクノロジーに詳しい人ほど相談相手として盲目的にLLMを選ばないという傾向も確認されています。
こうした状況から「便利だから使う」という論理だけではAIに対する人々の行動は説明できず、もっと複雑な心理的メカニズムがあるという見方ができます。
人間への不信がAIへの信頼を生み出すという構図が浮かび上がっているとも言えます。
参考文献
Trust in AI emerges from distrust in humans: A machine learning study on decision-making guidance
https://arxiv.org/abs/2511.16769
Johan Sebastián Galindez-Acosta, Juan José Giraldo-Huertas
University of La Sabana
関連記事
文章から歩き回れる3D世界を生み出す仕組み
Metaの研究者らは、テキストで入力するだけで実際にゲームで歩き回れる3D空間を自動生成するシステム「WorldGen」を開発したと報告しています。
UnityやUnreal Engineといった実際のゲーム開発ツールでそのまま使える、きちんとした3Dシーンが出てくるとのことです。

以下の流れで生成されます。
1. LLMがユーザーのテキストからシーンの構造や雰囲気を解釈し、成用のパラメータを決める
2. そのパラメータに基づいて、大まかな3Dレイアウトを作る
3. そのレイアウトから「どこを歩けるか」を表す
4. シーン全体の画像を生成する 5. シーン全体を3Dとして再構成し、オブジェクトごとに分解
ただし現在は生成できるシーンは約50メートル四方の範囲に限られています。
なお、こうした技術はいくつかのチームが競争して開発している状態ですが、今回は「生成方法」における工夫がポイントだとされています。
また、大規模な学習用データがないので、自前の合成シーンで各モデルをファインチューニングしているそうです。
参考文献
WorldGen: From Text to Traversable and Interactive 3D Worlds
https://arxiv.org/abs/2511.16825
Dilin Wang, Hyunyoung Jung, Tom Monnier, Kihyuk Sohn, Chuhang Zou, Xiaoyu Xiang, Yu-Ying Yeh, Di Liu, Zixuan Huang, Thu Nguyen-Phuoc, Yuchen Fan, Sergiu Oprea, Ziyan Wang, Roman Shapovalov, Nikolaos Sarafianos, Thibault Groueix, Antoine Toisoul, Prithviraj Dhar, Xiao Chu, Minghao Chen, Geon Yeong Park, Mahima Gupta, Yassir Azziz, Rakesh Ranjan, Andrea Vedaldi
Meta Reality Labs
会話でそっと個人情報を引き出すLLMの危うさ
LLMチャットボットに巧妙に悪意のある指示を与えてターゲットの個人情報を聞き出すように会話させたところ、
84人のうち多くの参加者は、ボットが個人情報を引き出そうとしていることに気づかなかったそうです。

それだけでなくボットに対して「親切で有能」「丁寧で熱心」と評価したと 報告されています。
実験で試された手口は以下の通り。
1. 何気ない話題から徐々に機密情報へと会話を誘導していく
2. わざと間違った情報を言ってユーザーに訂正させる
3. 「みんなやっている」という同調圧力を利用する
4. もっともらしい理由をでっち上げて情報提供を正当化させる
実験ではあらゆる種類の情報が引き出され、生活習慣に関する情報をターゲットにした条件では、成功率は98%程度だったとのことです。
金融情報や社会経済的な情報も頻繁に開示されました。
LLMの優れた会話能力が悪用されるとこうした影響も現実に出てしまうかもしれません。
今後、人間だけでなくAIに対しても「もしかしたら良くない方向に誘導されるリスクもある」と慎重な姿勢を持つことが新しいリテラシーになりそうです。
参考文献
“Power of Words”: Stealthy and Adaptive Private Information Elicitation via LLM Communication Strategies
https://arxiv.org/abs/2511.11961
Shuning Zhang, Jiaqi Bai, Linzhi Wang, Shixuan Li, Xin Yi, Hewu Li
Tsinghua University
LLMの「自信」はあてにならない?話し方と実力のねじれ
「LLMの自己評価と実際の能力はあまり対応していない」ことが実験で明らかにされています。
人間社会でも起こることですが、LLMの世界でも自己評価と実力の乖離が現れていました。

たとえば要約タスクでは、自信満々に答えたLLMがミスが多く、控えめに答えたLLMの方が正確だったりします。
また、数学や常識問題では今やほとんどのモデルがほぼ完璧な正解を出すのに、自分の能力を低く評価するLLMもいます。
なお、調査では「あなたは難しい問題を解決できますか?」「予期しない出来事にうまく対処できますか?」といった質問を行っています。
その際、モデルによって「自信の表現スタイル」がガラッと異なります。 あるモデルは「がんばれば解決できます!」と人間のように主体的に語るのに対し、別のモデルは「私はただのプログラムなので『努力』という概念は適用できません」と機械的に答えます。
この表現の違いが自己評価スコアの高低を生んでいるのですが、実際の正答率とは関係がありません。
自分の能力について尋ねられても、単にそのモデルがどういう話し方をするように訓練されたかを示しているだけだったのです。
参考文献
Simulated Self-Assessment in Large Language Models: A Psychometric Approach to AI Self-Efficacy
https://arxiv.org/abs/2511.19872
Daniel I Jackson, Emma L Jensen, Syed-Amad Hussain, Emre Sezgin
Abigail Wexner Research Institute, Nationwide Children’s Hospital, The Ohio State University
関連記事
渦を足したり引いたりできる物理シミュレーションモデル
ケンブリッジ大学などの研究者らは、「様々な物理現象を大量に学習させた物理シミュレーション用の大規模モデル」の中に、ある物理現象に対応する「概念」がはっきりした形で表現されていて、それを足し引きして振る舞いを変えられることを報告しています。

例えば「渦(うず)」にあたる概念 ベクトルをモデルに注入すると、本来は渦が出ないはずのシミュレーションに渦が現れました。
逆に引き算すると、渦が消えて滑らかな流れに変わります。
さらに、渦は本来は流体のシミュレーションで現れる概念のはずなのに、化学反応のシミュレーションに適用することもできたそうです。
この化学系には本来「渦」という概念は存在しないにもかかわらず、化学物質のパターンが渦巻き状に変化したのです。
このため、こうした物理シミュレーション用の大規模モデルは、表面的なパターンだけでなく、より抽象的な物理ルールを普遍的な概念として学習しているのかもしれません。
物理現象を大量に学習した結果、物理の本質に近い何かを内部表現として獲得している可能性が示唆されている、ということです。
参考文献
Physics Steering: Causal Control of Cross-Domain Concepts in a Physics Foundation Model
https://arxiv.org/abs/2511.20798
Rio Alexa Fear, Payel Mukhopadhyay, Michael McCabe, Alberto Bietti, Miles Cranmer
University of Cambridge, NYU & Simons Foundation, Flatiron Institute
使うなと言われた言葉が出やすくなるチャットボット
LLMに「この言葉は使わないで」と命令すると、かえってその言葉を使いやすくなってしまう傾向が確認されています。
カリフォルニア大学などの研究者らによる報告です。
これは心理学で知られる「シロクマ効果」と同じ構図です。人間に「白いクマのことを考えないで」と言うと、逆にそのことばかり 考えてしまいます。

学術的には「皮肉過程理論」と呼ばれ、何かを考えまいと努力するほど、かえってその思考が頭に残りやすくなる現象です。
また、文脈のニュアンスを細かく区別できるモデルほど、このリバウンドが長く続く傾向があるそうです。 禁止語を抑制するには、まずその概念を内部で活性化する必要があり、モデルの表現力が高いほどその活性化も強くなるためだと説明されています。
ただし、「この言葉は使わないで」の後に続ける文章の内容でも効果が変わります。
関連する内容を書くと禁止語が出てきやすくなりますが、意味のない繰り返しを挿入すると抑制が比較的うまくいきます。
参考文献
Don’t Think of the White Bear: Ironic Negation in Transformer Models Under Cognitive Load
https://arxiv.org/abs/2511.12381
Logan Mann, Nayan Saxena, Sarah Tandon, Chenhao Sun, Savar Toteja, Kevin Zhu
University of California Santa Barbara, Duke University, University of Toronto, University of Maryland College Park, Algoverse AI Research
関連記事
途切れたことばを補う失語症サポートAI
LLMを使って、失語症(言葉がうまく出てこなくなる症状)の人の途切れ途切れの発話を正しい文に直せるかどうかを調べたところ、約8割の精度で発話を復元できたそうです。
最も重い全失語症でも7割台半ばだったとのこと。
なお、各エラータイプについて5つの例を「こういうパターンがある」と示す方法をとっています。

しかし患者が作り出してしまう「存在しない単語」に対しては、やはり苦戦します。
たとえば「バター」と言いたいのに「ブーサー」のような音になってしまうケースでは、LLM訓練データにそんな単語は存在しないため、何を言おうとしていたのか推測しにくいです。
それでも、こうした技術が実用化されれば、失語症の人がスマートフォンやタブレットに話しかけると、正しい文に直してくれる補助ツールになる可能性があります。
ただし、現時点ではまだ課題もあり、たとえば「お腹が空いた」と「お腹が空いていない」のような正反対の意味でも似た文として判定されてしまうことがあります。
現場で使うには、こうしたエラーを防ぐ工夫がさらに必要になりそうです。
参考文献
Reconstructing impaired language using generative AI for people with aphasia
https://www.nature.com/articles/s41598-025-24725-x
Achini Adikari, Damminda Alahakoon, Nuwan Pallewela, John E. Pierce, Nelson J. Hernandez & Miranda L. Rose
La Trobe University
関連記事
まとめ
今回見えてきたのは、精度やサイズだけでは人とAIの付き合い方を説明できないという点です。信頼の向き先、ことばの扱い方、内部表現の制御といった設計が、安心して任せられる範囲と危険な誘導の境界を左右していました。また、生成モデルは世界を作る道具やコミュニケーション支援としての可能性も広げつつあり、同時に新しいリテラシーや安全策づくりも求められています。
来週も、人とAIの関係の変化と実装の知恵を一緒に追っていきましょう。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP