AIDB Daily Papers
UtilityMaxプロンプティング:多目的LLM最適化のための形式的フレームワーク
※ 日本語タイトル・ポイントはAIによる自動生成です。正確な内容は原論文をご確認ください。
ポイント
- 本研究では、形式的な数学的言語を用いてタスクを定義するUtilityMax Promptingというフレームワークを提案した。
- 自然言語の曖昧さを排除し、LLMが目的の各要素を明示的に考慮して最適化された出力を生成することが重要である。
- MovieLens 1Mデータセットを用いた実験で、自然言語ベースラインを上回る精度とNDCGの向上が確認された。
Abstract
The success of a Large Language Model (LLM) task depends heavily on its prompt. Most use-cases specify prompts using natural language, which is inherently ambiguous when multiple objectives must be simultaneously satisfied. In this paper we introduce UtilityMax Prompting, a framework that specifies tasks using formal mathematical language. We reconstruct the task as an influence diagram in which the LLM's answer is the sole decision variable. A utility function is defined over the conditional probability distributions within the diagram, and the LLM is instructed to find the answer that maximises expected utility. This constrains the LLM to reason explicitly about each component of the objective, directing its output toward a precise optimization target rather than a subjective natural language interpretation. We validate our approach on the MovieLens 1M dataset across three frontier models (Claude Sonnet 4.6, GPT-5.4, and Gemini 2.5 Pro), demonstrating consistent improvements in precision and Normalized Discounted Cumulative Gain (NDCG) over natural language baselines in a multi-objective movie recommendation task.
Paper AI Chat
この論文のPDF全文を対象にAIに質問できます。
質問の例: