次回の更新記事:LLM同士だけで伝わる効率的なコミュニケーションをさ…(公開予定日:2024年12月16日)

特定の個人の好みやニーズに最も適したレスポンスや行動を行うLLMを開発する手法、『Personalized Soups(意訳:ぼくだけのためのスープ)』が開発されました。

   

RLHF(人間のフィードバックによる強化学習)を個人に適用することで実現します。

ワシントン大学やカリフォルニア大学などの研究者らによる報告です。

@ Joel Jang et al., “Personalized Soups: Personalized Large Language Model Alignment via Post-hoc Parameter Merging”

【告知】AIDB HRの人材側登録者全員に対し、業界研究の手間を削減できるように「AI事業を行う企業リスト」を配布します。無料登録後すぐに閲覧とダウンロードが可能です。▼



RLHFは、一般的な人間の好みに合わせてLLMを調整するために、極めて有望な手法として知られています。
しかし、個人に特化する用途では最適ではありませんでした。

そこで研究者らは「個人のフィードバックからの強化学習(RLPHF)」フレームワークを提案しています。

※本稿は論文の簡単な紹介記事です。

RLPHFフレームワークの概要

フレームワークの概要は以下のとおりです。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP