次回の更新記事:今週の注目AI論文リスト(論文公開日2026/2/1~2/7)(公開予定日:2026年02月08日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

視覚言語モデルの落とし穴:見ているようで見ていない?

画像・Vision(画像認識、VLM、マルチモーダル、OCR)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

視覚を持つLLMが画像に基づいて質問に正解したとしても、「画像の正しい部分を見ている」かどうかは分からないので注意とのこと。

なぜかというと、本当は見えていないのに言語能力を駆使して「正解だと思われること」を答えているケースがあるのだといいます。
このような現象をショートカット学習と言うそうです。

今回研究チームは、「モデルがどこを見ているのか」を可視化する方法を開発し、その結果このような問題が発覚したとのことです。

逆に画像内の正しい部分に注目したとしても最終的な答えを誤るケースもあります。

視覚に基づく回答能力は必ずしもモデルサイズに比例して改善するわけではなく、またモデルの構造によって「見るときの注意の仕方」は違うようです。
そのため、使用するモデルごとの特性の理解が推奨されることを示唆。

なお、視覚を持つLLMを大規模視覚言語モデルと呼んだり、より一般的な言い方でマルチモーダルLLMと呼んだりします。

📄 参照論文

Where do Large Vision-Language Models Look at when Answering Questions?

著者: Xiaoying Xing, Chia-Wen Kuo, Li Fuxin, Yulei Niu, Fan Chen 他

関連記事