AIDB Daily Papers
MuxTune: 大規模言語モデルの効率的なマルチタスク・ファインチューニングをマルチテナントデータセンターで実現
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- MuxTuneは、複数のPEFTタスクをリソース効率良く同時実行するファインチューニングシステムを提案した。
- GPU利用率の低さや通信遅延によるデバイス停止といった、既存PEFTの問題を解決し、効率的なリソース利用を実現する点が新しい。
- 実験の結果、MuxTuneは既存技術と比較して最大2.33倍のスループット向上と5.29倍のメモリ削減を達成した。
Abstract
Parameter-Efficient Fine-Tuning (PEFT) is widely applied as the backend of fine-tuning APIs for large language model (LLM) customization in datacenters. Service providers deploy separate instances for individual PEFT tasks, giving rise to prominent resource inefficiencies, including (1) GPU underutilization from small-scale, PEFT-native operators and (2) device stalls from communication delays and data dependencies in parallelized execution. To address these issues, this paper presents MuxTune, a fine-tuning system that enables resource-efficient concurrent execution of multiple PEFT tasks. The key idea is to multiplex the backbone across independent tasks in a spatial-temporal manner for improved utilization and reduced stalls. Building on flexible, modularized backbone sharing via unified PEFT representations, MuxTune proposes hierarchical co-scheduling scheme with task, operator, and data-level optimizations. Specifically, it fuses tasks through a hybrid of spatial and temporal multiplexing, and orchestrates multi-task operator execution in two-tiered hybrid parallelism. Additionally, MuxTune employs chunk-based data alignment to mitigate inter-task ineffective tokens. Experimental results demonstrate that MuxTune achieves up to $2.33times$ higher throughput and $5.29times$ memory reduction compared to three state-of-the-art baselines.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: