ChatGPTを上回る性能で、比較的小さなモデル(7B)に現実的で多様なコード生成タスクをこなさせる手法『Magicoder』が開発されました。
イリノイ大学などの研究者らによる発表です。
– “Magicoder: Source Code Is All You Need”
論文によると、これまでLLMが生成するコードデータには偏りがあり、多様性や現実性にやや欠いていました。
そこで研究者らは、実用性の高いコードを生成するフレームワーク『Magicoder』を開発しました。
■『Magicoder』とは何か
① LLMにより現実的で多様なコード生成させる手法
② モデルが生成する合成データの偏りを減らす
③ 様々なコーディングタスクに対応する
■フレームワークの特徴
① オープンソースのコードスニペットでLLMを教育
② 特に7Bパラメータ以下のLLMを対象として強化
■実験結果
① 幅広いコードタスクで高い性能を達成
② 7BモデルがChatGPT(GPT-3.5)を上回る性能を記録
(GPT-3でも175Bパラメータ)
■使い方
① GitHubにアクセスし、ライブラリを設定
② モデルを呼び出しプロンプトテンプレートを用意
③ 結果を出力し使用する
(HiggingFaceでもデモを利用可能)
本フレームワークはMITライセンスの下で公開されており、条件を守って独自に使用することが可能です。
なお、学習に使用されているオープンソースコードに依存している点、複雑なタスクへの使用に耐えられるかは不明な点、そして安全性などには注意した上で使用することが推奨されています。