GPT-4などLLMのコード生成能力にデバッグ機能を追加する『SELF-DEBUGGING(セルフデバッギング)』フレームワークが考案されました。

   

追加訓練なしで、複数のベンチマークで優秀なパフォーマンスを達成しています。
実行プロンプト例は比較的シンプルです。

DeepMindとUCバークレーの研究者らによる発表です。
@ Xinyun Chen et al, “Teaching Large Language Models to Self-Debug”

重要なお知らせ:AI分野のお仕事マッチングサービス「AIDB HR」を開始しました!登録後はオファーを受け取るだけのシンプルなサービスです!現在、期間限定で、ギフト券が必ずもらえる新規登録キャンペーンも行っています。



LLMはコード生成においても優れた性能を示していますが、複雑なプログラミングタスクで一度に正確な解を生成するのは困難とも言われています。
既存の研究はモデルの追加訓練を必要とするものが多くコストがかかります。

そんな中、研究者らはLLMが自ら生成したプログラムをデバッグする能力を教えるフレームワークを考案しました。

本稿は論文の簡単な紹介記事です。

フレームワークの方法論

SELF-DEBUGGINGは以下3つのステップで構成されます。

当サイトの利用にはAIDBのアカウントが必要です。
また記事の購読には、アカウント作成後の決済が必要です。



※ログイン/初回登録後、下記ボタンを押してください。

AIDBとは
プレミアム会員(記事の購読)について


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






PAGE TOP