次回の更新記事:Cursorはソフトウェア開発を加速する?導入後の実態…(公開予定日:2025年11月11日)

心を読み、場をつくり、正直さを選ぶAI

   

本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。

普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。

今週は、AIのふるまいを「設計して運用する」視点を集めました。AIだけの掲示板で見えた集団の動き、行動データに寄り添う日記で整う心、集中を助ける開発アシスタント、会話を下ごしらえして理解を深める手法、嘘の回路を狙って抑える技術、性格プリセットで変わる協力と競争、そして極少パラメータが握る他者理解のスイッチまで。

研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。

また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

仮想掲示板で起きたこと トピックも揉め方も人間並み

LLMにネット掲示板への書き込みを1ヶ月間続けさせたところ、人間同士の1ヶ月間と似た現象が起きたという実験結果が得られています。

研究者たちは、かつて存在した「Voat」という右寄りな掲示板の技術板を真似し、AIエージェントたちに議論させました。各AIには性格や政治的立場、毒舌レベルなどの設定を与えました。

結果、発生した話題の94%が実際のVoatと似ており、議論が自然に生まれていました。また投稿数や参加者数、会話の長さなどもかなり近いものになりました。

ただ、AIの場合は人間よりも遠慮なく毒のある発言をする傾向が強いことが分かりました。

総合的にみるとAIは人間のオンライン行動をかなりリアルに模倣できることを示しています。
そのため、新しいSNSの設計やネット荒らし対策に活用できる可能性が期待されています。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Operational Validation of Large-Language-Model Agent Social Simulation: Evidence from Voat v/technology

https://arxiv.org/abs/2508.21740

Aleksandar Tomašević, Darja Cvetković, Sara Major, Slobodan Maletić, Miroslav Anđelković, Ana Vranić, Boris Stupovski, Dušan Vudragović, Aleksandar Bogojević, Marija Mitrović Dankulov

Institute of Physics Belgrade, University of Belgrade, Vinča Institute of Nuclear Sciences, University of Belgrade, University of Novi Sad


8週間で不安が下がった 行動連動ジャーナリング

AIが個人の日常をモニタリングして行動に合わせた質問を行うアプリを開発したところ、8週間使用したユーザーの精神状態がかなりよくなったと報告されています。

その人がどこにいるか、誰と話しているか、どのくらい歩いているか、何時間寝ているか、どんなアプリを使っているかなどを記録。
そのデータをもとに、LLMが例えば「今日はいつもより友達と話す時間が少なかったようですが、どう感じましたか」といった具体的な質問を作って毎晩送るというものです。

実験の結果、参加者の不安や落ち込みが減り、自分を振り返る力やマインドフルネス指数(落ち着き)などが向上しました。
また、神経症的な性格傾向が短期間で有意に弱くなりました。普通、人の性格は簡単には変わらないものです。

このようにセンサーデータを活用してLLMによる介入を適切に行うことで、メンタルヘルスに効果的なジャーナリングツールになるのではないかと期待されています。

この話題へのみんなの反応を見る (Xに移動)

参考文献

MindScape Study: Integrating LLM and Behavioral Sensing for Personalized AI-Driven Journaling Experiences

https://pmc.ncbi.nlm.nih.gov/articles/PMC11634059/

Subigya Nepal, Arvind Pillai, William Campbell, Talie Massachi, Michael V. Heinz, Ashmita Kunwar, Eunsol Soul Choi, Orson Xu, Joanna Kuc, Jeremy Huckins, Jason Holden, Sarah M. Preum, Colin Depp, Nicholas Jacobson, Mary Czerwinski, Eric Granholm, Andrew T. Campbell

Dartmouth College, Colby College, Brown University, Cornell Tech, Massachusetts Institute of Technology, University College London, Biocogniv Inc, University of California San Diego, Microsoft Research

関連記事


ADHDの強みを生かすための“相棒”ツール

ADHD(注意欠如多動症)を持つエンジニアをLLMで支援するツールを開発したと報告されています。

ユーザーの作業パターンを監視し、集中力が途切れた時に適切なタイミングで声かけを行います。開発者が困った時に相談できる相手としても機能。
利用を継続できるようにゲームのようにもなっているそうです。

ソフトウェア業界では働く人の1割以上がADHDを抱えていると言われていますが、集中力の維持、作業の開始、時間管理などを助けるツールは少なめです
ADHD特性を持つ人にとっては、通常の職場環境は負担の大きい要素が多く含まれています。

研究はまだ初期段階で、今後の検証が必要な状況です。
しかし特性への配慮を開発環境に取り入れるのはこれまで見過ごされがちだった視点のため、今後の発展が期待されます。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Tether: A Personalized Support Assistant for Software Engineers with ADHD

https://arxiv.org/abs/2509.01946

Aarsh Shah, Cleyton Magalhaes, Kiev Gama, Ronnie de Souza Santos

University of Calgary, UFRPE, CIn-UFPE

関連記事


役割と気持ちを先に整理すると交渉まで強くなる

LLMは意外と会話の記録などから心情などの”込み入った状況”を理解するのが苦手です。
そこでNVIDIAなどの研究者たちは、あるワンクッションを挟むことで性能を大きく向上させられることを発見しました。
まずは「誰が」「何を見て」「何を考えて」「何をした」のかを明確にしてから 状況を分析させるのです。 するとLLMの状況理解力が大幅に改善することがわかりました。

人間なら「Aさんは怒っているのにBさんは気づいていない」「Cさんは本音を隠している」といったことを自然に気が付きますが、LLMがこれを簡単にできるわけではありません。
そのため、このような工夫が必要になります。

「状況を整理する能力」と「整理された情報を使って判断する能力」というスキルは個別のものであり、両方大事だからだと考えられています。

このシステムを搭載したAIエージェントは人間とのやりとりが上手になり、実験では交渉能力などで顕著な改善を示しました。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Social World Models

https://arxiv.org/abs/2509.00559

Xuhui Zhou, Jiarui Liu, Akhila Yerukola, Hyunwoo Kim, Maarten Sap

Carnegie Mellon University, NVIDIA

関連記事


ごまかしはどこで生まれるのか 正直さを調整する方法

カーネギーメロン大学の研究者たちは、LLMが意図的に嘘をつく際の仕組みを解明し、それを制御する方法を見つけたと報告しています。

LLMは大きくなり賢くなるほど、嘘をつくのも上手になります。これは単純な間違い(ハルシネーション)とは異なり、目的のために 虚偽の情報を提供する能力のことです。 間違えることと嘘をつくことは明確に区別するように注意が必要です。

研究者たちがLLMの内部を詳しく調べたところ、嘘をつく時には特別な処理パターンがあることが判明しました。実際に嘘を出力する前に、複数の嘘の候補を検討してから最終的な嘘を選んでいるのです。
なお、LLMの膨大な神経回路の中で、実際に嘘に関わっているのはほんの一握りの特定部分だけでした。

そして彼らはLLMが嘘をつく能力を制御してより正直な回答をするように誘導する技術を開発しました。

実験で営業スタッフのようにふるまわせたところ、誠実なまま効果的な営業を行えるようになったとのことです。
嘘をつく能力を抑制しても、他の能力にはほとんど影響しないことが分かりました。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Can LLMs Lie? Investigation beyond Hallucination

https://arxiv.org/abs/2509.03518

Haoran Huan, Mihir Prabhudesai, Mengning Wu, Shantanu Jaiswal, Deepak Pathak

Carnegie Mellon University

関連記事


MBTIでチューニングするエージェント チーム戦略が賢くなる

チューリッヒ工科大学研究者たちがMBTI性格診断の16タイプをLLMに演じさせたところ、感情を重視するタイプ(F)に設定したエージェントは協力的になり、論理を重視するタイプ(T)は競争的になりました。
また、内向的(I)に設定すると指示を守りやすく、外向的(E)になると
読みやすくユーモアのある話を書くのが得意でした。

研究チームは異なる性格タイプを設定した複数のエージェントにチームワークをさせる実験も行いました。その結果、対話の前に各自で短く考えさせると、協力や推論の質が上がりました。

なお、この研究結果はLLMが本当に感情や性格を持っていることを意味してはいません。しかし、人間の性格理論に基づいたパターンが予測可能であることは興味深い結果です。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Psychologically Enhanced AI Agents

https://arxiv.org/abs/2509.04343

Maciej Besta, Shriram Chandran, Robert Gerstenberger, Mathis Lindner, Marcin Chrapek, Sebastian Hermann Martschat, Taraneh Ghandi, Patrick Iff, Hubert Niewiadomski, Piotr Nyczyk, Jürgen Müller, Torsten Hoefler

ETH Zurich, BASF SE, Cledar, IDEAS Research Institute

関連記事


0.001%いじるだけで「相手の気持ち」が読めなくなる

LLM全体の0.001%程度の敏感なパラメータが少し書き換わるだけで、「他人が何を考えているかを推測する」力が大きく低下してしまうということが報告されています。
出力の流暢さはほぼ変わらず、文章はふつうに読めるままです。

基本的な賢さが維持されたまま「心の理論」の能力が劣化する現象が起きうるのは興味深い発見です。
ただし、一部の言語理解も同時に悪化するそうです。

この話題へのみんなの反応を見る (Xに移動)

参考文献

How large language models encode theory-of-mind: a study on sparse parameter patterns

https://www.nature.com/articles/s44387-025-00031-9

Yuheng Wu, Wentao Guo, Zirui Liu, Heng Ji, Zhaozhuo Xu & Denghui Zhang

Stanford University, Princeton University, University of Minnesota Twin Cities, University of Illinois Urbana-Champaign, Stevens Institute of Technology

関連記事

まとめ

AIのふるまいは、与えるもの(場・性格・手順)と、どこを触るか(ごく少数の回路)で大きく変わります。情報を一度整理するひと手間で理解が伸び、性格プリセットや短い内省で協力が生まれ、意図的なごまかしは選択的に抑えられます。他者理解は小さな回路に強く依存していることも見えてきました。

人に寄り添う支援からオンライン社会の設計まで、AIを意図通りに動かすための具体的な手がかりが整いつつあります。今後も、こうした視点からAIの新しい役割と課題を丁寧に追っていきます。

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


SNSでも発信中

企業と働き手を繋ぐマッチングサービスはこちらから


AIDBとは


AIDBは、論文などの文献に基づいてAIの科学技術や市場にキャッチアップするためのサービスです。個人の研究や仕事探し、法人の調査や採用を支援します。2019年から運営しています。

PAGE TOP