AIDB Daily Papers
捏造者か、それとも動的な翻訳者か?LLM翻訳における過剰生成の考察
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 大規模言語モデル(LLM)は機械翻訳に長けているが、生成的な性質から過剰な情報を生成することがある。
- LLMによる過剰生成は、自己解説や危険な作り話、適切な説明など、従来のニューラル機械翻訳とは異なる様相を見せる点が重要である。
- 商用環境での研究で、LLMの過剰生成を検出し、その性質を特定するための様々な戦略を検証し、結果を提示した。
Abstract
LLMs are proving to be adept at machine translation although due to their generative nature they may at times overgenerate in various ways. These overgenerations are different from the neurobabble seen in NMT and range from LLM self-explanations, to risky confabulations, to appropriate explanations, where the LLM is able to act as a human translator would, enabling greater comprehension for the target audience. Detecting and determining the exact nature of the overgenerations is a challenging task. We detail different strategies we have explored for our work in a commercial setting, and present our results.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: