AIDB Daily Papers
固定プロンプトから学習型ルーティングへ:多言語LLMの進化
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 多言語LLMにおける翻訳ベースのプロンプト戦略の効果を10言語で評価し、万能な戦略は存在しないことを発見した。
- 低リソース言語では不完全な翻訳でも効果が高く、高リソース言語では効果が薄く、自己ルーティングは明示的翻訳を下回った。
- インスタンスごとに最適なプロンプト戦略を学習する軽量分類器を導入し、固定戦略を大幅に上回る改善と汎化性能を示した。
Abstract
Translation-based prompting is widely used in multilingual LLMs, yet its effectiveness varies across languages and tasks. We evaluate prompting strategies across ten languages of different resource levels and four benchmarks. Our analysis shows that no single strategy is universally optimal. Translation strongly benefits low-resource languages even when translation quality is imperfect, high-resource languages gain little, and prompt-based self-routing underperforms explicit translation. Motivated by these findings, we formulate prompting strategy selection as a learned decision problem and introduce lightweight classifiers that predict whether native or translation-based prompting is optimal for each instance. The classifiers achieve statistically significant improvements over fixed strategies across four benchmarks and generalize to unseen task formats not observed during training. Further analysis reveals that language resource level, rather than translation quality alone, determines when translation is beneficial.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: