次回の更新記事:AIと人間の協働は、どのような「型」がうまくいく?(公開予定日:2026年02月18日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

キャラ絵から高精度アニメを生成 Animate Anyone

動画(動画生成、動画理解、映像AI)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

「キャラの一枚絵からアニメ映像を生成する」新手法『ReferenceNet(Animate Anyone)が登場しました。

複雑な外観を一貫して保ちつつ、ポーズの変更が可能であることが示されています。

アリババの研究者らによる発表です。

@ Li Hu et al., “Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation”

論文によると、従来は画像からアニメーションや動画を作成する際にキャラクター(あるいは人物)の動きに一貫性が欠けていました。

そこで研究者らは『ReferenceNet』という新しいフレームワークを導入し、様々なポーズが入れ替わるスムーズな動きを実現しています。

■『ReferenceNet』の特徴
① キャラクターの動きを制御する「ポーズガイダー」を導入
② 時間が経過しても一貫性が維持されるための”temporal layer”を導入

■性能評価テスト
①5,000のキャラクタービデオクリップ(2〜10秒長)を収集してモデルトレーニング
② ビデオ内のキャラクターのポーズシーケンスを抽出し、ポーズスケルトン画像にレンダリング
③トレーニングは2段階、最初は個々のビデオフレームを30,000ステップ、次に時間層を24フレームビデオシーケンスで10,000ステップトレーニング

■テスト結果
① CLIP特徴のみ、ControlNetより優れた結果を示す
② 定量的な評価として、SSIM, PSNR, LPIPS, FVDの各指標で最も優れたスコアを達成

非常になめらかに複雑な動きを再現する一方、「手の動き」における安定性に関してのみ、まだ課題があると述べられています。

📄 参照論文

論文情報と関連研究

関連記事