人の脳波を読み取って会話に活かすLLMシステムを開発した報告されています。ヘッドバンドで脳波を測定し、返答の仕方を自動調整するとのこと。
研究者らの所属はMITメディアラボとブラウン大学。
LLM自体を改造したわけではなく、脳波データを使ってユーザーの集中度合いを測定しプロンプトに追加することで、モデルの出力を適応させる手法を採用しています。
開発目的はシステムを通した学習の効率化とのことで、今のところユーザーの成績向上までは確認できていないものの、通常と比べてLLMとの会話が盛り上がることが確認されました。
脳波で測定するのは、その人が今どれほど集中しているか、という点です。こうしたデータをLLMに応用する試みはまだなかなか無いそうです。
📄 参照論文
NeuroChat: A Neuroadaptive AI Chatbot for Customizing Learning Experiences