AIDB Daily Papers
ドメイン特化型日本語小規模言語モデル構築:規模、構造、量子化の最適化
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、QLoRAファインチューニングを用いてドメイン特化型日本語小規模言語モデルを構築する体系的な手法を提示した。
- 最適な学習規模、ベースモデルの選択、構造を考慮した量子化という3つの重要な課題に取り組み、実用的な指針を示す点が新しい。
- Swallow-8B Q4_K_Mモデルが、精度と速度、モデルサイズのバランスに優れ、実用的な選択肢となることを示した。
Abstract
This paper presents a systematic methodology for building domain-specific Japanese small language models using QLoRA fine-tuning. We address three core questions: optimal training scale, base-model selection, and architecture-aware quantization. Stage 1 (Training scale): Scale-learning experiments (1k--5k samples) identify n=4,000 as optimal, where test-set NLL reaches minimum (1.127) before overfitting at 5k samples. Stage 2 (Compare finetuned SLMs): Comparing four Japanese LLMs shows that Llama-3 models with Japanese continual pre-training (Swallow-8B, ELYZA-JP-8B) outperform multilingual models (Qwen2.5-7B). Stage 3 (Quantization): Llama-3 architectures improve under Q4_K_M quantization, while GQA architectures degrade severely (Qwen2.5: -0.280 points). Production recommendation: Swallow-8B Q4_K_M achieves 2.830/3 score, 8.9 s/question, 4.9 GB size. The methodology generalizes to low-resource technical domains and provides actionable guidance for compact Japanese specialist LMs on consumer hardware.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: