次回の更新記事:誤解を招きやすいAI用語6選、技術語なのに揺れる意味(公開予定日:2026年04月30日)
AIDB Daily Papers

ドメイン特化型日本語小規模言語モデル構築:規模、構造、量子化の最適化

原題: Adapting Methods for Domain-Specific Japanese Small LMs: Scale, Architecture, and Quantization
著者: Takato Yasuno
公開日: 2026-03-12 | 分野: LLM NLP ファインチューニング 機械学習 最適化 モデル 量子化 日本語

※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。

ポイント

  • 本研究では、QLoRAファインチューニングを用いてドメイン特化型日本語小規模言語モデルを構築する体系的な手法を提示した。
  • 最適な学習規模、ベースモデルの選択、構造を考慮した量子化という3つの重要な課題に取り組み、実用的な指針を示す点が新しい。
  • Swallow-8B Q4_K_Mモデルが、精度と速度、モデルサイズのバランスに優れ、実用的な選択肢となることを示した。

Abstract

This paper presents a systematic methodology for building domain-specific Japanese small language models using QLoRA fine-tuning. We address three core questions: optimal training scale, base-model selection, and architecture-aware quantization. Stage 1 (Training scale): Scale-learning experiments (1k--5k samples) identify n=4,000 as optimal, where test-set NLL reaches minimum (1.127) before overfitting at 5k samples. Stage 2 (Compare finetuned SLMs): Comparing four Japanese LLMs shows that Llama-3 models with Japanese continual pre-training (Swallow-8B, ELYZA-JP-8B) outperform multilingual models (Qwen2.5-7B). Stage 3 (Quantization): Llama-3 architectures improve under Q4_K_M quantization, while GQA architectures degrade severely (Qwen2.5: -0.280 points). Production recommendation: Swallow-8B Q4_K_M achieves 2.830/3 score, 8.9 s/question, 4.9 GB size. The methodology generalizes to low-resource technical domains and provides actionable guidance for compact Japanese specialist LMs on consumer hardware.

Paper AI Chat

この論文のPDF全文を対象にAIに質問できます。

質問の例:

AIチャット機能を利用するには、ログインまたは会員登録(無料)が必要です。

会員登録 / ログイン

💬 ディスカッション

ディスカッションに参加するにはログインが必要です。

ログイン / アカウント作成 →

関連するAIDB記事