GPT-4などLLMのコード生成能力にデバッグ機能を追加する『SELF-DEBUGGING(セルフデバッギング)』フレームワークが考案されました。

   
★AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。
★コンサルティングサポート(調査・研修・開発支援)をご希望の方はお問合せください。

追加訓練なしで、複数のベンチマークで優秀なパフォーマンスを達成しています。
実行プロンプト例は比較的シンプルです。

DeepMindとUCバークレーの研究者らによる発表です。
@ Xinyun Chen et al, “Teaching Large Language Models to Self-Debug”


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

LLMはコード生成においても優れた性能を示していますが、複雑なプログラミングタスクで一度に正確な解を生成するのは困難とも言われています。
既存の研究はモデルの追加訓練を必要とするものが多くコストがかかります。

そんな中、研究者らはLLMが自ら生成したプログラムをデバッグする能力を教えるフレームワークを考案しました。

本稿は論文の簡単な紹介記事です。

フレームワークの方法論

SELF-DEBUGGINGは以下3つのステップで構成されます。

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP