次回の更新記事:今週の注目AI論文リスト(論文公開日2026/3/1~3/7)(公開予定日:2026年03月07日)

Instruction TuningでLLMが脳活動に類似

学習手法(ファインチューニング、RLHF、事前学習、instruction tuning)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

LLMの内部を人間の脳と類似させるためにInstruction Tuningを使用すると、データ上、類似性が有意に向上することが示されました。

スイス連邦工科大学の研究者らによる発表です。

– “Instruction-tuning Aligns LLMs to the Human Brain”

論文によると、LLMの内部が人間の脳と似ると、出力における事実性、予測可能性、スタイルの自然さが向上するとのことです。

そこで研究者らは、Instruction Tuningと神経科学によってLLMを人間の脳に似せる取り組みと分析を行いました。

■研究デザイン
① 人のスタイルや価値観でInstruction Tuningを行う
② 脳のfMRIや読書時間のデータで整合性を評価する
③ LLMの言語処理が人間に近づいているか分析する

■実験結果
① 平均で、脳活動への類似性が6.2%増えた
② モデルの大きさと知識の多さが相関していた
③ 行動についての類似性には影響しなかった

→Instruction TuningはLLMを人間の脳活動(理解や反応)に近づける。一方で、行動にはあまり影響を与えない

■今後の展望
① LLMを人の脳とより近づけるInstruction Tuningの探究
② LLMによる脳活動の正確な予測方法を探る
③ Instruction Tuningを様々なタスクに適用

研究者らは、LLMと脳の整合性に影響を与える影響は多岐にわたるもので、単純な結論を出すのは難しいとしています。
その上で本研究を、LLMと人間の言語処理システムをより近づけるための第一歩としています。

📄 参照論文

論文情報と関連研究

著者: 著者:Khai Loong Aw, Syrielle Montariol, Badr AlKhamissi, Martin Schrimpf, Antoine Bosselut

関連記事