本記事では、LLMコーディングエージェントが生成するコードの「再現性」に焦点を当てた研究を紹介します。
AIにコードを書かせる場面は急速に増えています。しかし、そのコードを別の環境で動かそうとしたとき、本当にそのまま実行できるのでしょうか。
開発者の手元では動いていたはずのコードが、別のマシンではエラーを吐く。こうした経験をした方も少なくないはずです。AIが生成したコードにも同じことが起きているとしたら?しかも、その問題はこれまでほとんど検証されてこなかったとしたら?

背景
コードの「再現性」とは、あるコードを別の環境に移しても、同じように動作することを意味します。ソフトウェア開発の現場では、開発者の手元では動いていたコードが本番環境では動かない、という問題は、チーム開発でよく直面する課題の一つです。
最近Claude CodeやOpenAI Codex、Gemini Code Assistといったコーディングエージェントが登場し、コード本体だけでなく、設定ファイルや依存関係の指定まで含めた、ひとまとまりのプロジェクトを生成できるようになってきました。
しかし、ここで一つの疑問が生じます。AIが生成したコードは、本当に再現可能な形で出力されているのでしょうか。もしAI自身が再現性の問題を引き継いでいるとしたら、開発を効率化するどころか、かえって問題を複雑にしてしまう可能性もあります。
そこで本記事ではそうした再現性の問題を調査した事例を取り上げます。