Glossaryarrow
AnimateDiff
AnimateDiff

AnimateDiffは、既存のテキストから画像への拡散モデルに動き生成能力を付加するオープンソースのフレームワークであり、静止画像生成器が再学習なしで短いアニメーションシークエンスを出力できるようにする。既存の画像生成パイプラインに学習済みモーションモジュールを挿入することで、静止画像のみで学習したモデルがコヒーレントなフレーム間の動きを生成し、実質的に画像生成器を軽量の映像生成器に変える。

技術的アプローチは、画像生成のバックボーンとは別に映像データでモーションモジュールを学習させ、推論時にそのモジュールを画像モデルに接続することで成り立つ。モーションモジュールは独立して学習されるため、多数の画像モデルチェックポイントやLoRAファインチューンと組み合わせられ、アニメーション出力が使用中の画像モデルのビジュアルスタイル、キャラクターデザイン、美学を継承できる。得られるアニメーションは通常数秒の短いもので、スムーズにループし、アニメーションイラスト、コンセプトループ、スタイル一貫のモーションクリップに適している。AnimateDiffは、専用の映像生成モデルが広く利用可能になる前に、オープンソースの画像生成エコシステム内で映像生成を可能にした影響力のある一歩だった。

AIアニメーションワークフローを探るクリエイターにとって、AnimateDiffはモジュラーなモデル設計の価値を示した。動きの学習と見た目の学習を分離することで、各コンポーネントを独立して開発・改良できる。強力な画像基盤に動きを加えるという原理は、その後のAI映像生成ツールとワークフローのアーキテクチャに影響を与え続けている。

Can't find what you are looking for?
Contact us and let us know.
bg