最新の記事:科学は「研究」と「査読」両方が加速していく AIと…
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

大規模言語モデル(LLM)のこれまでとこれから② -モデル構築編-

2024.02.15
深堀り解説

本記事では、LLM研究全体の背景と現状、そして将来展望を網羅的に整理する調査論文をもとに、LLMの基礎を振り返ります。前回は、代表的なモデルについて深掘りしました。

前回の記事:大規模言語モデル(LLM)のこれまでとこれから① -代表的なモデル編-

今回は、モデルの構築について深掘りします。

参照論文情報

  • タイトル:Large Language Models: A Survey
  • 著者:Shervin Minaee, Tomas Mikolov, Narjes Nikzad, Meysam Chenaghlu, Richard Socher, Xavier Amatriain, Jianfeng Gao
  • 所属:論文には所属機関が示されていないため各機関から有志の研究グループが結成されたことが推測されます。
  • URL:https://doi.org/10.48550/arXiv.2402.06196

前回のおさらい

前回は、LLMの登場に至るまでの経緯と代表的なモデルについて触れました。主に以下のような内容です。

  • 初期のニューラル言語モデルが現代の高度なモデル(GPT、LLaMA、PaLMなど)に進化した
  • トランスフォーマーモデルの採用が言語理解・生成能力の向上につながった
  • 数十億のパラメータを持つモデルが出現し、精度が飛躍的に向上した
  • LLMにおいては事前学習、微調整、および人間のフィードバックによる強化方法が注目されている
  • 大規模なモデルになったことで、新たなタスクへの適応能力や指示に従う能力など、旧来には見られない能力が発現した
  • オープンソースモデルが登場し、分野の進歩に貢献している

上記の続き(あるいは独立したコンテンツ)として、以下では「モデルの構築」に焦点を当てています。LLMに一般的に使用されている構造を再確認し、データ準備やトークン化、事前学習、命令文の調整、そしてアライメントまでのデータ処理やモデリング技術について説明します。フローで示すと、

プレミアム会員限定コンテンツです

無料会員でもできること

  • 一部記事の閲覧
  • 研究紹介短信ライブラリの基本機能
  • プロンプト管理ツールの利用

プレミアム会員の特典

  • 全過去記事の無制限閲覧
  • 専門家による最新リサーチ結果を記事で購読(平日毎日更新)
  • 日本語検索対応の新着AI論文データベース
  • 研究紹介短信ライブラリの高度な機能を開放
  • 記事内容質問AIを使用可能に
  • プロンプト管理ツールの無制限使用

記事検索

年/月/日
年/月/日

関連記事