次回の更新記事:Cursorはソフトウェア開発を加速する?導入後の実態…(公開予定日:2025年11月11日)

AIは未来を見て自分を映す 判断と個性を探る6研究

   

本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。

普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。

今週は、AIの判断力と“らしさ”に迫る6本の研究を紹介します。未来予測の精度向上、能力を八つに整理する新評価、空気を読むスマートグラス、AI同士で採点し合う自己評価法、映像からの性格推定、そして人格ベクトルによる安全制御まで、多角的にAIのふるまいを照らし出します。

研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。

また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

AIは未来を言い当てるか 予測力が専門家に迫る

Google DeepMindなどの研究者らによると、現在のAIは将来起こる出来事を予測する能力においてすでに平均的な個人を上回っている可能性があり、専門家レベルの予測精度に近づいているとのことです。

通常のタスクと異なり、未来の出来事は本質的に不確実で、似たような事例も少ないため、学習が非常に難しいです。しかしこの問題は解決する方向に向かっているのが現状のようです。

現在のAIの技術発展の速度を見ると、そう遠くない将来にさまざまな分野の専門家レベルの予測能力に到達しうると論じられています。

すると、例えば企業の投資判断から政策決定まで社会のさまざまな場面で活用できるようになる、と考えられています。

ただし、予測AIが普及すると、新たな問題も生じます。
AIの予測結果を信じすぎる人が出てきたり、AIの予測自体が現実に影響を与えて予測が的中してしまう「自己実現的予言」が起こったりするかもしれません。
そうしたリスクへの対応策について議論を進める必要がありそうです。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Advancing Event Forecasting through Massive Training of Large Language Models: Challenges, Solutions, and Broader Impacts

https://arxiv.org/abs/2507.19477

Sang-Woo Lee, Sohee Yang, Donghyun Kwak, Noah Y. Siegel

Google Deepmind, NAVER Cloud

関連記事


AIの“頭の良さ”は8つの力で語れる? 新評価で見えた本質

研究者らによると「AIの根本的な能力は8つであり、すべての評価はこの8つの能力の組み合わせで説明できる」とのことです。

その8つは以下の通り。

  1. 文章理解
  2. 論理的推論
  3. 長文読解
  4. 指示に従った文章生成
  5. 専門的な質問応答
  6. 倫理的判断
  7. 正確性
  8. 大学院レベルの高度な推論

これまでの評価では、この8つの能力のうち一部にしか対応しないタスクに偏重しがちだと報告されています。

よく「このAIはこのテストで何点、あのテストで何点」という風に個別のテストの点数が話題になりますが、それは木を見て森を見ずといった状況なのかもしれません。

なお、この上で、AIの性能を決めるのはモデルのサイズ(パラメータ数)よりも、どんなデータで訓練されたかの方が重要である傾向が強いそうです。

この話題へのみんなの反応を見る (Xに移動)

参考文献

IQ Test for LLMs: An Evaluation Framework for Uncovering Core Skills in LLMs

https://arxiv.org/abs/2507.20208

Aviya Maimon, Amir DN Cohen, Gal Vishne, Shauli Ravfogel, Reut Tsarfaty

Bar-Ilan University, OriginAI, Columbia University, New York University

関連記事


空気を読むメガネが叶える邪魔しないAIアシスタント

Metaの研究者らは「この人、いま話しかけても大丈夫?」を判断できるメガネシステムを開発したと報告しています。

研究者たちは、ユーザーの頭の中がどれくらい忙しいかを推測する能力を持つAIをメガネに搭載。
カメラとマイクで情報を取り込み、ユーザーに余裕があるかどうかをジャッジします。

実験では、参加者にテーブルセッティングや荷造りなどの作業をしてもらいながら、このシステムが「空気を読み」ながら適切なタイミングでユーザーに話しかけました。するとユーザーの反応は良く、イライラも少なく済みました。

つまり、「今は忙しそうだから後にしよう」「今なら聞いてもらえそう」という判断ができるようになったということです。

人間の脳には「作業記憶」という、今まさに考えていることを一時的に保持する機能があります。この作業記憶がいっぱいになっている時に誰かに話しかけられると、とても邪魔に感じます。
この問題をテクノロジーで解決しようという取り組みです。

「賢い上に邪魔にならない」が実現できる可能性が示されている画期的な開発と言えます。

この話題へのみんなの反応を見る (Xに移動)

参考文献

ProMemAssist: Exploring Timely Proactive Assistance Through Working Memory Modeling in Multi-Modal Wearable Devices

https://arxiv.org/abs/2507.21378

Kevin Pu, Ting Zhang, Naveen Sendhilnathan, Sebastian Freitag, Raj Sodhi, Tanya Jonker

University of Toronto, Meta Reality Labs

関連記事


採点者もAIになる ベンチマークに縛られない相互評価法

「人間がAIを評価する時代から、人間ではなくAIがAIを評価する時代へとパラダイムが移るかもしれない」と示唆されています。

研究者たちが実際に数学やプログラミングといった分野でLLM同士の評価を実験したところ、安定性が示されました。

これまでのAI評価には、人間の主観が入ってしまう・
モデルの本当の実力がわからない・信頼できない場合があるなどの問題がありました。

しかしAI同士で評価させ合う方法であれば、これらが解決に向かう可能性があるとのことです。

今後、新しいモデルがどんどん出てくる中で、こうしたベンチマークに依存しない評価は重要な意義を持つ可能性があります。

この話題へのみんなの反応を見る (Xに移動)

参考文献

LLM-Crowdsourced: A Benchmark-Free Paradigm for Mutual Evaluation of Large Language Models

https://arxiv.org/abs/2507.22359

Qianhong Guo, Wei Xie, Xiaofang Cai, Enze Wang, Shuoyoucheng Ma, Kai Chen, Xiaofeng Wang, Baosheng Wang

National University of Defense Technology, Chinese Academy of Sciences, Academy of Military Science

関連記事


話しぶりや表情から「人柄」を見抜くAIが面接の常識を塗り替える

研究者らによると、人が話している映像を通して性格をAIで自動判定するシステムを作ったとのことです。
非常に高い予測精度を示し、国際競技会で1位を獲得しています。

「この人の誠実さを評価してください」「この人の外向性を判断してください」
といった指示に応じて、性格に関連する特徴を抽出する仕組み。

”人の性格は主に話す内容に現れるが、声のトーンや表情も参考情報として使える”という考えに基づいて開発されています。

使い方には注意が必要ですが、一部の面接や心理カウンセリングなどで補助として活用できるかもしれません。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Traits Run Deep: Enhancing Personality Assessment via Psychology-Guided LLM Representations and Multimodal Apparent Behaviors

https://arxiv.org/abs/2507.22367

Jia Li, Yichao He, Jiacheng Xu, Tianhao Luo, Zhenzhen Hu, Richang Hong, Meng Wang

Hefei University of Technology

関連記事


AIの性格を数式で操る新手法

AIの性格を数学的に理解し制御する方法を開発したと報告されています。
Anthropicの研究者らによる報告。
彼らはこれを「人格ベクトル」と呼んでいます。

研究者たちは、AIモデルの内部で「悪意」「お世辞」といった性格特性が、特定の方向として明確に表現されていることを発見しました。

次の意外な発見は、AIの性格変化が予期せぬ形で起こることでした。例えば数学の問題を間違って解くように訓練したAIが、なぜか悪意のある発言もするようになったりするのです。

しかし研究者たちは、この現象を人格ベクトルの変化として数学的に説明できることを理解しました。
その結果、訓練前のデータを分析するだけで、そのデータがAIにどんな性格変化をもたらすかを高い精度で予測できるようになりました。

転じて、AIの望ましくない性格を技術的に修正する方法も開発することも可能になりました。
人格ベクトルを逆方向に調整することで、悪意のあるAIを善良にしたり、お世辞ばかり言うAIを正直にしたりできるようになったのです。プロンプトのみで調整するよりもはるかに効果的だそうです。

AI安全性研究における新たに重要な突破口になるかもしれません。

この話題へのみんなの反応を見る (Xに移動)

参考文献

Persona Vectors: Monitoring and Controlling Character Traits in Language Models

https://arxiv.org/abs/2507.21509

Runjin Chen, Andy Arditi, Henry Sleight, Owain Evans, Jack Lindsey

Anthropic Fellows Program, UT Austin, Constellation, Truthful AI, UC Berkeley, Anthropic

関連記事

まとめ

AIは精度だけでなく、なぜそう振る舞うのかを説明し制御できる段階へ進んでいます。
今回の6研究は、判断根拠の可視化や性格調整の方法を示し、信頼できる協働相手に近づく手がかりを与えてくれました。

週末ダイジェストでは、技術の背景にある思考や価値観にも光を当ててお届けします。来週もまた、AIのふるまいを読み解く視点を一緒に探していきましょう。

■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


SNSでも発信中

企業と働き手を繋ぐマッチングサービスはこちらから


AIDBとは


AIDBは、論文などの文献に基づいてAIの科学技術や市場にキャッチアップするためのサービスです。個人の研究や仕事探し、法人の調査や採用を支援します。2019年から運営しています。

PAGE TOP