次回の更新記事:AIと人間の協働は、どのような「型」がうまくいく?(公開予定日:2026年02月18日)
「論文データベース(β版)」公開しました!新着論文を日本語で検索できます。ぜひご活用ください。 見てみる

画像に触れると揺れる!新Generative Dynamics

画像・Vision(画像認識、VLM、マルチモーダル、OCR)

📝 これは「短信」です ― AIDBリサーチチームが独自の視点で論文を紹介する、カジュアルで読みやすいコンテンツです。

一枚の画像を、「つっついたり引っ張ったりすると揺れ動く」ように変換する技術が開発されました。
植物など自然界の物体をよりリアルに感じられるようになります。
Google Researchによる研究です。

○ Zhengqi Li et al., “Generative Image Dynamics”

一枚の画像からダイナミクスのある動きを生成する技術はこれまでも多く開発されてきました。
しかし、物理的なリアルさを再現することが課題でした。

そこでGoogleの研究者らは、動画から「オブジェクトの軌跡」を学習させたモデルを開発することで、新たなツールを確立させました。

■変換プロセス(システム側の動き)
① 画像のアップロードを受け取る
② 画像の動きを予測する
③ ピクセルレベルで軌跡を作成する
④ 静止画像を動画形式にレンダリングする
⑤ 「ふれると動く」画像が出力される

このプロセスは、自然な振動ダイナミクスを持つ実世界のシーン、例えば風に揺れる木や花を対象としているとのことです。
※大きな変位を含む動きや、大量のコンテンツの生成が必要な場合は、変換がうまくいかない可能性があるとのことです。

📄 参照論文

Generative Image Dynamics

著者: 著者:Zhengqi Li, Richard Tucker, Noah Snavely, Aleksander Holynski

関連記事