https://x.com/hirochuu8/status/1730070010817888332?s=20
https://www.youtube.com/watch?v=8PCn5hLKNu4
本研究提出一种从静态图像生成角色影像的新框架,利用扩散模型的生成能力。
我们设计了ReferenceNet,通过空间注意力合并细节特征,
并引入姿势引导器与时间建模方法,确保动画的可控性与连续性。
我们的方法支持任意角色动画制作,并在时尚影像与人类舞蹈合成中达到先进水平。
https://humanaigc.github.io/animate-anyone/