AIが世界をどう理解し、人々はそれをどう使い、社会や経済にどう効くのか
本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は、AIが世界をどう“理解”し、人々はそれをどう“使い”、社会や経済にどう“効く”のかを一気にたどります。動画から物理を学ぶ世界モデル、日常に溶け込むChatGPT、医療や投資での判断力の台頭、そして人間の思考そのものを描き出す試みまで。AIの役割が静かに、でも確実に書き換わりつつあります。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

動画の「もしも」で学ぶAIが、世界の仕組みをつかむ
スタンフォード大学の研究チームが、新しい世界モデルを発表しています。
AIが自分で動画を観察して「もしこの物体がこう動いたらどうなるか」という仮想的な状況を想像することで、物体の動きや奥行き、物体の境界線などを自動的に理解するシステムを開発したそうです。

映像の一部を意図的に変更した仮想シナリオを作り出し、それを元の映像と比較して推論することで、物理法則や物体の関係性を学習する仕組み。
また、一度そうした理解(動きや奥行きなど)を獲得すると、それを使ってさらに高度な理解を積み重ねていくそうです。
結果、単一のモデルで動画予測、物体操作、3D理解など様々なタスクをこなせるようになり、各専用システムに匹敵する性能を示しています。
参考文献
World Modeling with Probabilistic Structure Integration
https://arxiv.org/abs/2509.09737
Klemen Kotar, Wanhee Lee, Rahul Venkatesh, Honglin Chen, Daniel Bear, Jared Watrous, Simon Kim, Khai Loong Aw, Lilian Naing Chen, Stefan Stojanov, Kevin Feigelis, Imran Thobani, Alex Durango, Khaled Jedoui, Atlas Kazemian, Dan Yamins
Stanford NeuroAI Lab
ChatGPTは仕事道具より“生活の相棒”だった
OpenAIを中心とした研究チームが世の中におけるChatGPTの使い方について調査した結果、意外な内容を含む実態が明らかになりました。

ChatGPTは仕事のツールというより日常生活のアシスタントとしてのほうがよく使われているようです。
利用の7割以上が仕事と無関係で、料理のレシピを調べたり、運動計画を立てたり、宿題を手伝ってもらったりといった個人的な用途が中心。
また、利用者層は初期から大きく変化しているそうです。最初は技術に詳しい男性が中心でしたが、今では男女がほぼ同じ割合で使うようになり、むしろ女性の方がやや多い状況。
利用者の半分近くが26歳未満という若さで、教育目的での利用が全体の1割を占めるとのことです。
仕事での使い方を見ると、プログラミングのような技術的な作業はわずか4%程度で、最も多いのは文章の作成や編集でした。
また高学歴や専門職の人は、ChatGPTを単なる作業代行ツールとしてではなく、意思決定のアドバイザーとして活用する傾向があるようです。
実際の作業をやってもらうよりも、情報を集めたり、判断材料を整理したり、問題解決の相談をしたりという使い方のほうが満足度が高いという結果も出ています。
なお、すでに世界の成人人口の1割近くが使うまでに普及していると推定されています。
参考文献
How people are using ChatGPT
webpage https://openai.com/index/how-people-are-using-chatgpt/
NBER https://www.nber.org/papers/w34255
Direct PDF Link https://cdn.openai.com/pdf/a253471f-8260-40c6-a2cc-aa93fe9f142e/economic-research-chatgpt-usage-paper.pdf
Aaron Chatterji, Thomas Cunningham, David J. Deming, Zoe Hitzig, Christopher Ong, Carl Yan Shan & Kevin Wadman
OpenAI, Duke University, Harvard University
関連記事
診断メモはAIの方が読みやすい?医師も見分けられず
ハーバード大学医学部などの研究者たちが、医学界で100年以上続いている有名な手法を使って、最新のLLMが医師と比べてどれくらい診断能力があるかを調べたところ、複雑な症例の診断において最新のモデルは既に人間の医師を大きく上回っていることが分かりました。

内科医が正解を当てる確率が半分以下だった難しい症例を含め、LLMは8割以上の確率で正解。
また、LLMが書いた診断の考察文を医師に見せたところ、それが人間が書いたものかLLMが書いたものか、医師たちはほとんど見分けることができませんでした。
むしろ多くの場合、LLMが書いた文章の方が質が高いと評価されたのです。
ただし、LLMにも弱点があることも明らかになりました。画像だけから診断する能力はまだ限られており、医学文献を正確に検索する能力も限定的です。
医師の役割がどう変わっていくかという重要な問いにつながるような研究結果です。
参考文献
Advancing Medical Artificial Intelligence Using a Century of Cases
https://arxiv.org/abs/2509.12194
Thomas A. Buckley, Riccardo Conci, Peter G. Brodeur, Jason Gusdorf, Sourik Beltrán, Bita Behrouzi, Byron Crowe, Jacob Dockterman, Muzzammil Muhammad, Sarah Ohnigian, Andrew Sanchez, James A. Diao, Aashna P. Shah, Daniel Restrepo, Eric S. Rosenberg, Andrew S. Lea, Marinka Zitnik, Scott H. Podolsky, Zahir Kanjee, Raja-Elie E. Abdulnour, Jacob M. Koshy, Adam Rodman, Arjun K. Manrai
Harvard Medical School, Beth Israel Deaconess Medical Center, Brigham and Women’s Hospital, Massachusetts General Hospital, University of Rochester School of Medicine and Dentistry, Harvard University, Countway Library of Medicine
関連記事
広告を見ない利用者(=AI)で、Webの稼ぎ方が変わる
LLMエージェントの登場によりインターネットが「Agentic Web」とも呼べるものに変わろうとしている、とのことです。
それに伴い、経済に影響が及ぶことは避けられない展開と考えられています。
現在のWebは人間がブラウザでサイトを見て、検索して、クリックして何かを買ったりする仕組みになっています。
これを、今後は、LLMエージェントが人間の代わりに自動でやるようになるだろうと予測されています。
たとえば「来月東京に出張に行きたい」と言えば、エージェントが勝手に航空券を検索し、ホテルを予約し、レストランまで手配してくれるといった形に。
経済的には大きな変革が起こります。
現在のWebは広告で成り立っている側面が大きいですが、エージェントは広告を見ません。
そのためビジネスモデルの設計を迫られます。
エージェントが実際にサービスを利用した分だけお金を払う仕組みに変わるかもしれません。
Agentic Webにはまだ安全性の課題があるものの、各企業が力を入れて開発を進めており、徐々にこうした世界観に移行していく可能性が十分あり得ます。
参考文献
Agentic Web: Weaving the Next Web with AI Agents
https://arxiv.org/abs/2507.21206
https://github.com/SafeRL-Lab/agentic-web
Yingxuan Yang, Mulei Ma, Yuxuan Huang, Huacan Chai, Chenyu Gong, Haoran Geng, Yuanjian Zhou, Ying Wen, Meng Fang, Muhao Chen, Shangding Gu, Ming Jin, Costas Spanos, Yang Yang, Pieter Abbeel, Dawn Song, Weinan Zhang, Jun Wang
The Hong Kong University of Science and Technology (Guangzhou), University of Liverpool, University of California, Berkeley, Shanghai Innovation Institute, University of California, Davis, Virginia Tech, University College London
関連記事
侍から人を抜くと寺・・・?言葉遊びでAIがつまずく理由
北陸先端科学技術大学院大学の研究者たちが日本の「なぞなぞ」を使って最新LLMの思考力を測定したところ、なぞなぞはLLMにとってかなり難しく、38個のモデルの中でGPT-5だけが人間並みの成績でした。
たとえば、「侍が人を斬って逃げました。どこへ逃げた?」という問いの答えは「寺」。
これは「侍」という漢字から「人」の部分を取り除くと「寺」になるという言葉遊びで、表面的な意味から離れて発想を転換する必要があります。

LLMの大きさとこの賢さ(なぞなぞの正解率)は関係なく、”じっくり考える”機能が成績の良さにつながっていることが分かりました。
少し奇妙なのは、日本語のなぞなぞなのに英語で考えた方が正解率が高いモデルもいたことです。
また、正解を思いついているのに、それが正解だと気づかずに別の答えを選んでしまうことが頻繁にありました。
人間なら「あ、わかった!」という瞬間的な確信があるのですが、LLMにはその感覚が弱いようです。
参考文献
The NazoNazo Benchmark: A Cost-Effective and Extensible Test of Insight-Based Reasoning in LLMs
https://arxiv.org/abs/2509.14704
Masaharu Mizumoto, Dat Nguyen, Zhiheng Han, Jiyuan Fang, Heyuan Guan, Xingfu Li, Naoya Shiraishi, Xuyang Tian, Yo Nakawake, Le Minh Nguyen
Japan Advanced Institute of Science and Technology
話し方のクセは思考の軌跡に現れる
オックスフォード大学などの研究者らが、
「人が語るときに頭の中で何が起きているか」
をLLMを使って分析した結果、
人の思考は川のように滑らかに流れるのではなく、
「ある概念から次の概念へと飛び跳ねるように進む」
ことが分かったそうです。

また、遠い概念に移るときはアウトプットが遅くなることも判明しました。
さらに、自分のコミュニケーションスタイルが独特だと感じている人は、実際に予測しにくい思考の軌跡を描くことが分かりました。
これまでの技術では言葉から思考の流れを読み取るのは難しかったのですが、LLMを使うことで、こうした分析が可能になったようです。
今回の実験結果は、「意識の流れは飛翔と停止の連続だ」という100年以上前にウィリアム・ジェームズが言ったことを裏付けている可能性があります。
なお実験内容としては、1100人に「シンデレラの話を詳しく説明してください」「普通の人の一日の流れを説明してください」と頼み、その語りを分析しました。
LLMを活用することでそうしたデータから人間の思考プロセスの幾何学的な構造を明らかにし、実際の行動や個人差と紐づいていることを示唆できた形です。
精神医学的な評価にも応用できる可能性があると期待されています。
参考文献
Charting trajectories of human thought using large language models
https://arxiv.org/abs/2509.14455
Matthew M Nour, Daniel C McNamee, Isaac Fradkin, Raymond J Dolan
University of Oxford, Max Planck UCL Centre for Computational Psychiatry and Ageing, University College London, Champalimaud Centre for the Unknown, The Hebrew University of Jerusalem, Wellcome Centre for Human Neuroimaging
関連記事
投資センスを数値化 モデルごとに違う“目利き”
最先端のLLMが実際のベンチャーキャピタリストよりも正確に起業家の成功を予測できたと実験結果が出ています。
オックスフォード大学などの研究者らによる報告です。

研究者たちは9,000人の起業家のデータを集めて、その人たちが成功するかどうかをLLMに予測させる実験を行いました。
なお、学習データによるカンニングを防ぐために匿名化の処理は入念に行われています。
トップクラスの投資会社でも6人程度しか当てられませんでしたが、LLMの中には、それを上回る精度で予測できるものがありました。
また、モデルごとに異なる予測傾向がある興味深い結果になりました。
なお、実験に使用したデータには、現実の割合よりも多くの成功事例が含められています。
そうしたギャップもあるため、現実の世界でも同じような結果が出るかは分かりません。
参考文献
VCBench: Benchmarking LLMs in Venture Capital
https://arxiv.org/abs/2509.14448
Rick Chen, Joseph Ternasky, Afriyie Samuel Kwesi, Ben Griffin, Aaron Ontoyin Yin, Zakari Salifu, Kelvin Amoaba, Xianling Mu, Fuat Alican, Yigit Ihlamur
University of Oxford, Vela Research
関連記事
まとめ
AIは、観察に小さな仮定を重ねて因果の筋道をとらえ、日々の文章づくりや計画の相談相手として根づき始めています。意思決定では要点を整理して背中を押す一方、発想の切り替えや自己確信、図表・画像の扱いにはまだ拙さが残ります。ウェブ体験は「自分で操作する」から「意図を渡して任せる」へと重心が移り、成果はモデルの癖と、任せ方・検証の手順・伝え方の設計で大きく揺れます。
このダイジェストでは、技術の紹介にとどまらず、その背景にある意味や向き合うべき課題まで視野に入れます。次回も、広がりつつあるAIの役割と、人がどこで手綱を握るのかという境目を一緒に確かめていきましょう。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。

PAGE TOP