最新の記事:科学は「研究」と「査読」両方が加速していく AIと…
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

文脈内学習は「少数事例からの単純な学習だけでなく、言語モデルが持つ幅広い適応能力」

2024.12.17
深堀り解説

本記事では、言語モデルの文脈内学習について、DeepMindの研究者たちが提案する新しい理論的枠組みを紹介します。

これまで、文脈内学習は主に「少数の例から学習する能力」として議論されてきましたが、実際には指示に従う能力や役割演技、時系列データの予測など、より幅広い現象を含んでいます。

発表者情報

  • 研究者:Andrew Kyle Lampinen et al.
  • 研究機関:Google DeepMind

背景

LLMが持つ「文脈から学習する能力」に大きな注目が集まっています。これはどういうものかと言うと、「新しいことを学ぶ方法を学ぶ」能力です。

もともとAIの分野では、研究者らは言語モデルのメモリや情報処理の仕組みを工夫することで、新しい課題への対応力を高めようとしてきました。そしてTransformerベースのモデルでは、少数の例を見ただけで新しい課題に取り組めるようになり、まるで「少しヒントを与えるだけで自分で考えて解決できる」ような能力を示すようになりました。

この能力の源泉として、学習データに含まれる特徴的なパターン、例えばデータの突発的な集中や繰り返し現れる類似構造などが重要な役割を果たしていると考えられています。しかし、これまでの研究は主に「少数の例から正解を教わりながら学習する」という限定的な枠組みに焦点が当てられてきました。

実際には言語モデルは、指示に従って行動を変えたり、特定の役割を演じたり、時系列データを予測したりするなど、より幅広い学習能力を持っています。これらの能力が互いに独立したものなのか、それとも統一的な学習の枠組みで説明できるのかは、まだ明らかになっていません。

そこでGoogle DeepMindの研究者らは、言語モデルの文脈学習能力を包括的に理解するため、学習の内容、方法、応用という複数の観点から検討を行いました。本稿では、言語モデルが示す多様な学習能力の本質に迫ります。

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事