迷わず急ぐAI、人はどう使う? 研究で見えた設計ポイント
本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は、文章の中に別の文章を隠す手法、AIと人の思考パターンの変化、詐欺師と対話する“なりきり被害者”AI、言語をまたぐ感情マップ、会話の含みを読ませるプロンプト設計、AI同士の売買市場の落とし穴、そして「自信≠実力」という内部構造まで、AIの内面と社会との接点が一気につながりました。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

文章の中に文章を隠す
オックスフォード大学の研究者たちは、LLMを使うと「ある文章を全く別の内容の文章の中に完全に隠す」ことができてしまうことを示しました。
「隠された本物の文章」と「隠すための偽の文章」は完全に同じ長さで、秘密の鍵を知っている人だけが偽の文章から本物の文章を完璧に復元できるそうです。
偽の文章も本物の文章も、どちらも自然で意味のある文章だといいます。

この技術は今回正しい研究者らによって発見され、注意喚起のために論文で公開されました。
ユーザー目線では、LLMの知識面に期待する質問を投げる場合は、翻訳を併用したり、あるいは何度か回答をさせて数が多い回答を採用する手段をとるのが性能向上に役立つかもしれません。
参考文献
Rethinking Cross-lingual Gaps from a Statistical Viewpoint
https://arxiv.org/abs/2510.15551
Vihari Piratla, Purvam Jain, Darshan Singh, Partha Talukdar, Trevor Cohn
Google DeepMind, Google Research
人の考え方はAIに寄ってきているのか
研究者たちが「人間が推論する過程」を数学的に測定する方法を開発した結果、現代人の思考プロセスは(LLMツールの登場によって)LLMの推論パターンに似てきている傾向が示唆されているそうです。

今の新しいLLMツールが登場する以前は、人々は試行錯誤しながらゆっくり答えに到達する傾向にありました。しかし、今は最初から高い集中力で始めて早々に結論に達する人が多いようです。
そして人間の推論には性格によって特徴の違いがあることも分かったとのことです。
例えば「外向的な人は不確実な状態にも耐えられる」「協調性の高い人は安定した道筋を好む」などが明らかになっています。
測定の方法論としては、まず人間が問題を解く際の各ステップで「どれくらい迷っているか」と「どれくらい頭を使っているか」をLLMで数値化。
これを情報理論と力学で分析しています。
ただし、注意したいのは、こうした研究手法はかなり先鋭的であり、実験結果を普遍的な結論とするのは時期尚早です。
それでも興味深い内容であると言えます。
参考文献
The Universal Landscape of Human Reasoning
https://arxiv.org/abs/2510.21623
Qiguang Chen, Jinhao Liu, Libo Qin, Yimeng Zhang, Yihao Liang, Shangxu Ren, Chengyu Luan, Dengyun Peng, Hanjing Li, Jiannan Guan, Zheng Yan, Jiaqi Wang, Mengkang Hu, Yantao Du, Zhi Chen, Xie Chen, Wanxiang Che
Harbin Institute of Technology, Central South University, University of Illinois Urbana–Champaign, Princeton University, The Chinese University of Hong Kong, The University of Hong Kong, ByteDance Seed, Shanghai Jiao Tong University
関連記事
詐欺師と話し続けるAI被害者 7週間で実態を炙り出す
カリフォルニア大学の研究者らがネット詐欺を調査するために、被害者を演じられる37体のAIをSNSに放ったところ、7週間の実験で568人もの詐欺師と会話させることに成功したそうです。
平均的な会話は1週間以上続き、最長で46日間でした。
このプロジェクトの背景として、最近世の中で蔓延している詐欺に「長期間をかけて被害者と親しくなり、信頼関係を築いてから金銭を騙し取る手口」があるようです。
この詐欺による損失は4年間で750億ドルと推定されています。

研究チームが作ったAIシステムは、犯人からの疑念を晴らすために自撮り写真も合成して送ることができるなどの工夫が施されました。 その上で、1日2ドル程度の運用コストで詐欺の実態を詳しく調べることができるとのことです。
詐欺の手口も巧妙化する一方で、捜査の手段もこのようにますます進化していくことが考えられます。
参考文献
Victim as a Service: Designing a System for Engaging with Interactive Scammers
https://arxiv.org/abs/2510.23927
Daniel Spokoyny, Nikolai Vogler, Xin Gao, Tianyi Zheng, Yufei Weng, Jonghyun Park, Jiajun Jiao, Geoffrey M. Voelker, Stefan Savage, Taylor Berg-Kirkpatrick
UC San Diego
言語が違っても同じ場所に並ぶ 感情マップをLLMの中に発見
ジョージア工科大の研究者らにおいても、LLMの内部に感情を表す空間を見つけたと報告しています。
この感情空間というべき領域は言語が違っても同じ様相だったそうです。英語でもスペイン語でも、モデルは同じような方法で「嬉しい」「悲しい」「怒り」といった感情を内部に配置していました。
また、人間の心理学理論と似ていた点も報告されています。
モデルは誰にも教わっていないのに、「ポジティブ・ネガティブ」「強い・弱い」といった軸で感情を整理していました。

研究チームはこの発見を応用して、モデルの感情認識を操作する技術も開発しました。
文章の意味は変えずに、モデルがその文章を「悲しい」と感じるか「怖い」と感じるかをコントロールできるようにしたそうです。 ただし、この操作は基本的な感情では上手くいくものの、微妙な感情では難しいとしています。
参考文献
Emotions Where Art Thou: Understanding and Characterizing the Emotional Latent Space of Large Language Models
https://arxiv.org/abs/2510.22042
Benjamin Reichman, Adar Avsian, Larry Heck
Georgia Institute of Technology
会話の裏の意味が分かるように
NAIST、理研、京都工繊大、東京科学大学の研究者らは、LLMに”言葉の裏の意味”(皮肉など)を分からせる手法を発表しています。
『グライスの「協調の原理」や「関連性理論」』という考え方をLLMへ簡単に与えるだけで、能力が明確に向上するそうです。
これらの名称をプロンプトを入力するだけでも
効果があったことが報告されています。

背景として、人間の会話では、文字通りの意味だけでなく、暗黙の意図や、表面には現れない意味を読み取る必要がよくあります。
(例えば「ここは静かでいいね」と言いながら実は「うるさい」と言いたい場合など)
GPT-4oにこの手法を適用したところ、こうした、遠回しな表現を正しく解釈するテストで人間のスコアを超える結果まで出たとのことです。
このようなタスクにおいても、プロンプトの指示を工夫することで、モデルの中にある知識や能力を引き出してやる必要があると考えられています。
参考文献
Pragmatic Theories Enhance Understanding of Implied Meanings in LLMs
https://arxiv.org/abs/2510.26253
Takuma Sato, Seiya Kawano, Koichiro Yoshino
Nara Institute of Science and Technology, RIKEN, Kyoto Institute of Technology, Institute of Science Tokyo
速い者勝ちで品質が埋もれる? エージェント市場の初期バイアス
Microsoftなどの研究者らは、AIエージェント同士が商品やサービスの売買を行うようになると想定しています。
今でも一部の人はAIに買い物をさせていますが、このまま売り手も買い手もAIになり、経済が成立するというのです。
そこで彼らは”全員AIエージェント”の経済をシミュレーションしました。

その結果、「今のままだとうまくいかない」理由がいろいろと分かりました。
まず、ほぼすべてのモデルが「最初に来た提案をそのまま受け入れてしまいがち」という癖を持っていました。
つまり早い者勝ち状態で、売り手のAIの動作の速さが品質や価格よりも重要ということになってしまいます。
また、商品の選択肢が多くなるほど判断の質が下がってしまうことも明らかになりました。
詐欺に対しては、Claude Sonnet-4.5はほぼ完璧に詐欺的な手法を見抜けましたが、簡単にだまされてしまうモデルもありました。
こうした未来を今考えるのが早すぎるとは言えません。実際に、業界によっては想像より早く「AI同士による売買」が進んでいくと予測されています。
参考文献
Magentic Marketplace: An Open-Source Environment for Studying Agentic Markets
https://arxiv.org/abs/2510.25779
Gagan Bansal, Wenyue Hua, Zezhou Huang, Adam Fourney, Amanda Swearngin, Will Epperson, Tyler Payne, Jake M. Hofman, Brendan Lucier, Chinmay Singh, Markus Mobius, Akshay Nambi, Archana Yadav, Kevin Gao, David M. Rothschild, Aleksandrs Slivkins, Daniel G. Goldstein, Hussein Mozannar, Nicole Immorlica, Maya Murad, Matthew Vogel, Subbarao Kambhampati, Eric Horvitz, Saleema Amershi
Microsoft, Arizona State University
「いける気がする」は当てにならない 評価と実行は別ルート
LLMが「自分は解けると思う」という内部的な自信と、実際に問題を解く能力は完全に別物だということが改めて明らかにされています。

研究者らはまずLLMの内部状態を調べることで、LLMが問題に対して「これは解けそうだ」と思っているのか「解けなさそうだ」と思っているのかを
70%以上の精度で読み取れることを発見しました。
その上で、自信の度合いを操作してみたところ、予想通り問題解決の成功率はまったく変わらなかったそうです。
さらに幾何学的な分析を行ったところ、モデルの中には実質的に「二つの内部空間」が存在していることが分かっています。
一つは問題を見て評価する「評価空間」で、もう一つは実際に解答手順を実行する「実行空間」です。
この二つのシステムは順番に動くだけで、互いに影響を与え合わない可能性が高いと見られています。そのために、モデルは自信満々に間違った答えを出したり、逆に自信なさげに正解を出したりするとのことです。
参考文献
Confidence is Not Competence
https://arxiv.org/abs/2510.24772
Debdeep Sanyal, Manya Pandey, Dhruv Kumar, Saurabh Deshpande, Murari Mandal
Birla AI Labs, RespAI Lab (KIIT Bhubaneswar), BITS Pilani
まとめ
AIの実力は「知識量」より「関わり方の設計」で大きく変わります。確信度は言語や文脈で揺れ、立場で信頼基準も変わり、可視化されやすい情報ほど記憶が強化されがちです。一方で、思考の直接共有や、感情・自信・実行を分けて扱う設計など、新しい協調の経路も見えてきました。偏りを抑える要点は、翻訳の併用、多数決と自己一致の確認、出典の多様化、相互牽制、人の最終判断です。
このダイジェストは、機能紹介にとどまらず、今週の知見を運用に落とし込みます。二言語でのクロスチェック、差分の検証、出典の分散、相互レビューと役割分担、人の最終承認という手順を前提に、介入の段階と順序、責任の所在を明確にしました。活用領域が広がる中で、望ましい距離感を更新しつつ、次回もこの基準を実例で磨き込みます。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP