笑いから医療、倫理、植物まで AIが世界と結び直す7つの視点
本企画では、AIDBのXで紹介されたいくつかの最新AI研究を、ダイジェスト形式でお届けします。
普段の有料会員向け記事では、技術的な切り口から研究を詳しく紹介していますが、この企画では科学的な知識として楽しめるよう、テーマの概要をわかりやすくお伝えします。
今週は、AIが人や社会とどう関わるかを多方面から追います。親父ギャグから他の笑いへ広がる学習、AIが「意外」と感じる論文の将来性、死後データの扱い指針、詐欺師に逆取材する防犯、聞き取りで死因を見極める支援、土の声を訳して動く植物ロボット、そして指示上手の脳に見えたサインまで。技術の実力だけでなく、運用や制度、身体や自然とのつなぎ直しにも光を当てます。
研究に対する反応が気になる方は、ぜひAIDBのXアカウント (@ai_database)で紹介ポストもご覧ください。中には多くの引用やコメントが寄せられた話題もあります。
また、一部はPosfieにも掲載されており、読者のリアクションをまとめたページもあわせて公開しています。

親父ギャグが近道になる AIが笑いを身につける順番
研究チームがLLMに親父ギャグを学習させたところ、親父ギャグを学んだLLMは他のさまざまなタイプのギャグも理解するようになったそうです。

親父ギャグには言葉遊びや皮肉、文化的参照など色々な要素が複雑に関係しているからだと考えられています。
なお、逆に親父ギャグ以外のユーモアを学ばせたからと言って親父ギャグを理解するようにはなりませんでした。
このことから、複雑で多様なタイプから単純なタイプへの知識移転は起きやすい一方、その逆は難しく、LLMのユーモア理解には階層性が見られる、ということになります。
なお、Amazonの商品QAに含まれる皮肉やジョークは、単純なギャグと親父ギャグの中間的な複雑さを持つことも実験で示唆されました。
参考文献
One Joke to Rule them All? On the (Im)possibility of Generalizing Humor
https://arxiv.org/abs/2508.19402
Mor Turgeman, Chen Shani, Dafna Shahaf
The Hebrew University of Jerusalem, Stanford University
関連記事
AIが意外がる論文は後から効く 長期インパクトの目印
研究者たちが200万本以上の論文を調べたところ、LLMにとって意外だった論文は長期的にインパクトを持つ傾向があることが分かりました。
LLMが科学的発見を予測しづらいことが、むしろ重要さを予測するための手がかりになる可能性があるという興味深い話です。
そうした意外性のある論文は科学界でも賛否両論を呼んでいるそうです。
査読者の評価が真っ二つに分かれたり、一流ジャーナルに載るか下位ジャーナルに回されるかの極端な結果になっていたりします。
画期的な研究は最初から万人に理解されるわけではなく、むしろ混乱や議論を呼ぶことを示唆しているのかもしれません。

ただし人文系の研究ではこの傾向は逆でした。
※LLMのパープレキシティ(予測しづらさ)を意外性と表現しています。
また、アメリカでは、軍事関連機関はこうした「意外な」研究により多くの資金を出す一方で、保健関連の機関は安全で予測可能な研究を好む傾向があったそうです。
参考文献
Language Model Perplexity Predicts Scientific Surprise and Transformative Impact
https://arxiv.org/abs/2509.05591
Zhen Zhang (1, 2 and 3), James Evans (2, 3 and 4) ((1) School of Information Management, Nanjing University, (2) Department of Sociology, University of Chicago, (3) Knowledge Lab, University of Chicago, (4) Santa Fe Institute)
関連記事
亡くなった人のデータは誰のものか そっくりボット時代の守り方
現在の技術では、亡くなった人のデータからその人そっくりに話すAIを作ることができるようになっています。
実際に、故人の女性のSNSデータを使って、本人の許可なくAIボットが作られた事例もあります。
問題は、法律が故人のデータを十分には守っていないことです。故人のデータが勝手に使われても、遺族が止める手段があまりありません。

各サイトは故人のアカウント削除といった基本的な対応はしていますが、AIに学習されたデータをどう扱うかまでは考えられていません。
たとえばMetaの事例では、お金を払って人々の表情や声を記録し、リアルなアバターを作るプロジェクトを進めていますが、その人が亡くなった後にそのアバターがどう使われるかは明確になっていません。
研究者たちが心配しているのは、故人を模したAIが遺族に与える影響です。最初は慰めになるかもしれませんが、やがて故人のAIから望まないメッセージが届いたり、まるで死者につきまとわれているような感覚を与える可能性があります。
なお、日本の調査では、生前に対価があれば死後のデジタルデータの商業利用を認めるという人は約20%でした。
今、この問題は誰にとっても他人事ではないかもしれません。
参考文献
Towards Postmortem Data Management Principles for Generative AI
https://arxiv.org/abs/2509.07375
Ismat Jarin, Elina Van Kempen, Chloe Georgiou
University of California, Irvine
関連記事
詐欺師に逆取材するAI 会話で口座情報を聞き出す
LLMを詐欺師と会話させて情報を引き出す実験を大規模に行った結果、かなり有効であることが判明しています。
研究者たちは、LLMに被害者のふりをさせて、実際の詐欺師約2600人とメールでやり取りをさせました。
目的は詐欺師から銀行口座番号や暗号通貨のウォレットアドレスといった重要な情報を聞き出すことでした。

結果として、詐欺師が最初のメッセージに返信してくる確率は約半分でした(ただし不応答のうち約半数は無効なアドレスだった)。
そして、一度会話が始まると、約3分の1のケースで重要な情報を引き出すことに成功しました。
なお、詐欺師が素早く返信してくる会話ほど、最終的に重要な情報が得られる可能性が高いことも分かったそうです。
「詐欺メールを検出してブロックする」とは打って変わって、積極的に詐欺師の情報を収集して根本的な対策を打つという新しいアプローチです。
参考文献
Send to which account? Evaluation of an LLM-based Scambaiting System
https://arxiv.org/abs/2509.08493
Hossein Siadati, Haadi Jafarian, Sima Jafarikhah
Cybera Global Inc., University of North Carolina Wilmington, University of Colorado Denver
関連記事
聞き取りから死因を見極める 医療の空白をAIが埋める
GPT-5が医師のように死因を判定できるかどうかを調べたところ、かなり役立つという結果が出ています。
病院以外で亡くなる方には、医師による正式な死亡診断書が出せないケースが多いことが問題になっています。
途上国ではとくに多い社会問題です。
現在は、そんなとき家族や目撃者から話を聞いて死因を推定する手段が使われています。この作業は専門家や統計的な手法で行われています。

研究者たちはGPT-5に同じ作業をさせてみました。すると、これまでのやり方よりも正確に死因を特定できることが分かりました。
母親の出産時の死亡や交通事故のような、特徴がはっきりした死因についても非常に高い精度で識別できました。
ただし完璧ではありません。心筋梗塞と脳卒中のように症状が似ている病気を区別するのは依然として困難で、地域によって性能にばらつきもありました。
しかし、市販のLLMを使用することで医療インフラが不十分な地域でも、より正確な死因統計を得られるようになり、公衆衛生政策の改善につながる可能性があるのは新しい展開です。
参考文献
LAVA: Language Model Assisted Verbal Autopsy for Cause-of-Death Determination
https://arxiv.org/abs/2509.09602
Yiqun T. Chen, Tyler H. McCormick, Li Liu, Abhirup Datta
Johns Hopkins University, University of Washington
関連記事
植物が歩き出す 土の声を訳して動く鉢
生きた植物とロボットをLLMで繋げることで、植物に身体を与える試みに一定の成功をしたと報告されています。
東京大学池上高志研究室の研究者らによる発表。

植物の土に湿度や栄養の状態を測るセンサーを埋め込み、その情報をLLMが「のどが渇いた」といった人間の言葉に翻訳します。
最終的に、情報を統合したモデルがロボットに「水を探しに移動しよう」とか「ここで休もう」といった指示を出すといった仕組み。
つまり、植物が本当に水を欲しがっているときに、それを察知したロボットが自分で判断して水を求めて移動するという流れです。
研究者たちは実際に東京の展示会でこのシステムを一般公開し、来場者が植物ロボットと会話できるデモも行ったそうです。
生物と機械を人間の言語という共通の「翻訳システム」を使って統合することで、まるで生き物の新しい形を実現しつつあるかのような試みです。
参考文献
Plantbot: Integrating Plant and Robot through LLM Modular Agent Networks
https://arxiv.org/abs/2509.05338
Atsushi Masumori, Norihiro Maruyama, Itsuki Doi, johnsmith, Hiroki Sato, Takashi Ikegami
Alternative Machine Inc., The University of Tokyo
指示がうまい人の脳はどう違う 使いこなしのサインが見えた
LLMへの指示が得意な人とそうでない人の脳をfMRIで調べたところ、脳活動に違いがあることが初めて科学的に示されたと報告されています。

上手な人たちの脳では、言語処理に関わる領域と、計画や思考を司る領域がより活発に機能結合して働いていたそうです。
また、脳がより効率的に働いていることが示唆されました。
ただし、まだ小規模な研究なので、因果関係は明確ではありません。
また、脳の違いがスキルを生むのか、スキルの習得が脳を変えるのかも現時点では不明です。
プロンプトエンジニアリングの手法ではなく熟練者自身を研究対象とするのは珍しい事例と言えます。
参考文献
The Prompting Brain: Neurocognitive Markers of Expertise in Guiding Large Language Models
https://arxiv.org/abs/2508.14869
Hend Al-Khalifa, Raneem Almansour, Layan Abdulrahman Alhuasini, Alanood Alsaleh, Mohamad-Hani Temsah, Mohamad-Hani_Temsah, Ashwag Rafea S Alruwaili
King Saud University
関連記事
まとめ
今回の7本は、AIが情報をどう整理し、どんな価値基準で優先し、どのように判断へ至るのかを具体的に映し出しました。笑いの学習順序や意外性の指標、言語を介した生物と機械の接続、現場での使いこなしと熟達まで、設計しだいでふるまいが大きく変わることが見えてきます。
健康・科学・社会へ応用が広がる今、その考え方の土台を押さえることが、AIと賢く協力し責任ある運用につながります。週末ダイジェストでは技術の紹介だけでなく、その意味と課題も併せて追います。次回も、AIの新しい役割と線引きを一緒に見ていきましょう。
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。


PAGE TOP