次回の更新記事:Cursorはソフトウェア開発を加速する?導入後の実態…(公開予定日:2025年11月11日)

人間らしさを持つAIは、本当に“わかって”いるのか

   

本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。

普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。

今週は、「そのふるまいの背景に、どんな理由があるのか」を探るAI研究を6本まとめました。

見えている答えの奥には、隠れた価値観や判断、気づかない認知のクセがあります。作文、ユーモア、家庭、信頼、有害性、プログラム実行といった多様な場面で、AIの“考え方の根っこ”が読み解かれました。

研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。

また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

作文から未来が見える?AIが子どもの認知力と学歴を正確に予測する手法を開発

11歳の子どもが書いた250語程度の短い作文をLLMで分析すると、その子の将来の学力や教育成果を予測できることを実験的に発見したとの報告です。

研究者らによると、22年後の33歳時点での最終学歴まで予測できてしまうそうです。

また、この「LLMによる作文分析」、先生の評価、遺伝子情報の三つを組み合わせると、知能テストに匹敵するレベルまで“11歳時点での認知能力の”予測精度が向上することも分かりました。
子どもが書く短い文章には、その子の認知能力などに関する膨大な情報が隠されているということが示唆された形です。

これまで生徒の将来を予測する最も確実な方法は先生による評価だと考えられてきましたが、今後は多様なアプローチが手段になるかもしれません。

こうした発見は、プライバシーや公平性に関する新たな議論の必要性も示します。一方で、個別指導の可能性を広げるものでもあります。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Large language models predict cognition and education close to or better than genomics or expert assessment

https://www.nature.com/articles/s44271-025-00274-x

Tobias Wolfram

Faculty of Sociology, Bielefeld University, Bielefeld, Germany

関連記事


AIがジョークを理解する日は近い?心理学を応用したユーモア翻訳の新手法

あるジョークを別の言語に翻訳したときに、もとの面白さが失われてしまう問題を嘆いた研究者らは、「AIにジョークの適切な翻訳をさせる方法」を心理学の理論に基づいて編み出しました。

基本手順はシンプルで、

  1. ジョークを分析し、面白さの仕組みを理解する
  2. 分析内容を翻訳する
  3. 翻訳先の言語で新しいジョークを作り直す
    という3ステップです。

実験の結果、この方法で翻訳したジョークは、これまでのどんなアプローチよりも優れており、面白さが約8%、文章の自然さが約3%、内容の一貫性が約6%向上しました。
(面白さの測定方法には議論の余地があるかもしれません)

要するに、AIにジョークをただ翻訳させるのではなく、まず面白さの仕組みを理解させる工程が重要だったいう結論です。

なお、ジョークの構造理論(話題、角度、オチ)も組み込むと、より一層面白い翻訳ができるようになるそうです。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Psychology-Driven Enhancement of Humour Translation

https://arxiv.org/abs/2507.09259

Yuchen Su, Yonghua Zhu, Yang Chen, Diana Benavides-Prado, Michael Witbrock

University of Auckland, Singapore University of Technology and Design, Queen Mary University of London

関連記事


親子のすれ違いにAIが寄り添う 家庭内バイアスを見つける対話支援システム

AIで「親の無意識のバイアス」と「子どもの感情抑制」を検出し、各家族に合ったアドバイスをするシステムを開発したとのことです。
横浜市立大学と関西大学の研究者らが論文で発表しています。

研究者らは、複数のAIが議論して、具体的で優しいフィードバックを生成する仕組みを作りました。
親には「子どもの気持ちをもっと聞いてあげましょう」、子どもには「あなたの気持ちは大切だから話してもいいんだよ」といった言葉をかけます。

実験は、まだ実際の家族での長期的な効果が検証されているわけではなく、シミュレーション上において、親がより理解を示し、子どもがより素直に感情を表現するようになる様子が観測されています。

研究者らによると、親は子どもを愛しているつもりでも、無意識のうちに「勉強ができなければダメ」「男の子は泣いてはいけない」といった価値観を押し付けてしまうことがあります。一方で子どもは、親を困らせたくないという気持ちから、本当は不安や悲しみを感じているのに、それを素直に表現できずに我慢してしまいがちです。
こうしたシステムは、導入は慎重に行われることが想定されますが、家族内のコミュニケーションを円滑にするツールとして期待されます。

今後、実際の家族を対象にして検証を進めることが予定されているそうです。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Role-Playing LLM-Based Multi-Agent Support Framework for Detecting and Addressing Family Communication Bias

https://arxiv.org/abs/2507.11210

Rushia Harada, Yuken Kimura, Keito Inoshita

Yokohama City University, Kansai University

関連記事


価値観の違いはAIにも表れる?信頼と親密さをめぐる“AI同士の人間関係”シミュレーション

AIに「権力を重視する」「他人への思いやりを大切にする」といった異なる価値観を設定して会話をさせ、AI同士でお互いを評価させる実験が行われました。
大阪大学石黒研究室の研究者らによる報告。

結果、人間社会と同じように、似た価値観を持つAI同士の方がお互いを信頼し、
親しみを感じることが分かりました。
一方で、「快楽を追求するAIと規則を守るAI」のように正反対の価値観を持つ場合は、お互いへの信頼度が非常に低くなりました。

そして、思いやりや社会の調和を重視するAIの方が、自分の利益や成功を追求するAIよりも、他のAIから信頼されやすいという傾向が見られたそうです。

また、この実験を英語と日本語で行ったところ、日本語の方がAIの制御が難しく、日本の文化的特徴である「直接的な表現を避ける」傾向がAIにも現れたようです。
さらに日本語での実験では、AIがより調和を重んじる評価をする傾向も確認されました。

AIが人間の社会的な行動パターンを再現できる可能性を示す実験結果と言えます。
こうした技術は社会の理解を深めるための実験ツールとして活用できるかもしれません。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Value-Based Large Language Model Agent Simulation for Mutual Evaluation of Trust and Interpersonal Closeness

https://arxiv.org/abs/2507.11979

Yuki Sakamoto, Takahisa Uchida, Hiroshi Ishiguro

The University of Osaka


「拒否」と「危険の理解」は別物だった AIの内面を読み解く安全性研究

AIが「危険なリクエストだと理解すること」と「実際に拒否すること」を内部で完全に別々に処理していることを発見したそうです。

心の中では「これはダメなことだ」と分かっていても、何らかの理由で「お手伝いします」と答えてしまうことがあるのです。

そして、AIを騙す多くの悪質プロンプトは、AIの内心の判断を変えているわけではありません。「拒否のシグナルを弱める」だけなのです。

また、有害データで追加学習を施しても、内部の「善悪の判断」はほとんど変化しないことも分かりました。
AIの根本的な価値観が思っているより頑丈だということを示唆しています。

この発見には実用的な価値があります。AI の「本当の判断」を読み取ることで、表面的な応答に惑わされない新しい安全システムを構築できる可能性があります。

この話題へのみんなの反応を見る (Xに移動)

参考文献

LLMs Encode Harmfulness and Refusal Separately

https://arxiv.org/abs/2507.11878

Jiachen Zhao, Jing Huang, Zhengxuan Wu, David Bau, Weiyan Shi

Northeastern University, Stanford University

関連記事


AIが自分でコードを書く時代に向けて LLM専用の新言語「QUASAR」が実行速度と安全性を大幅改善

LLMが生成するコードをより高速・安全・高精度に実行するための新しいプログラミング言語「QUASAR」が提案されています。

実験では、実行時間が(並列化可能なタスクで)最大42 %短縮し、全体平均でも16 %短縮しています。ユーザー承認回数は最大52 %削減しました。

QUASARの特徴として、AIの予測に不確実性がある場合は、複数の可能性を考慮した実行ができるようになっているそうです。

ただし、AIは現時点ではこの新しい言語QUASARを直接は書けないので、まずPythonで書いてもらってからQUASARに自動変換するという手順をとります。

この話題へのみんなの反応を見る (Xに移動)

参考文献

A Fast, Reliable, and Secure Programming Language for LLM Agents with Code Actions

https://arxiv.org/abs/2506.12202

Stephen Mell, Botong Zhang, David Mell, Shuo Li, Ramya Ramalingam, Nathan Yu, Steve Zdancewic, Osbert Bastani

University of Pennsylvania

関連記事

まとめ

AIがどのように情報を受け取り、何を大事にし、どう判断するのか。その“考え方の土台”を知ることで、AIとの関わり方はもっと深く、柔軟なものになるかもしれません。

週末ダイジェストでは、技術の仕組みだけでなく、その背景にある思考や価値観にも注目してお届けしています。
来週もまた、AIのふるまいを読み解く視点を一緒に見つけていきましょう。

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


SNSでも発信中

企業と働き手を繋ぐマッチングサービスはこちらから


AIDBとは


AIDBは、論文などの文献に基づいてAIの科学技術や市場にキャッチアップするためのサービスです。個人の研究や仕事探し、法人の調査や採用を支援します。2019年から運営しています。

PAGE TOP