Animate3D通过多视角视频扩散动画化任意3D模型近期在4D生成方面的进展主要集中在通过提炼预训练的文本或单视角图像条件模型来生成4D内容。它们在利用具有多视角属性的各种现成3D资产方面存在不便,并且由于监督信号的内在模糊性,它们的结果存在时空不一致性。在这项工作中,我们提出了Animate3D,这是一种动画化任意静态3D模型的新框架。核心思想有两个方面:1) 我们提出了一种新颖的多视角视频扩散模型(MV-VDM),该模型以静态3D对象的多视角渲染为条件,训练在我们提出的大规模多视角视频数据集(MV-Video)上。2) 基于MV-VDM,我们引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,以利用多视角视频扩散先验来动画化3D对象。具体来说,对于MV-VDM,我们设计了一个新的时空注意模块,通过整合3D和视频扩散模型来增强空间和时间的一致性。此外,我们利用静态3D模型的多视角渲染作为条件来保持其身份。为了动画化3D模型,提出了一种有效的两阶段流水线:我们首先从生成的多视角视频中直接重建动作,然后通过引入的4D-SDS来细化外观和动作。定性和定量实验表明,Animate3D显著优于以前的方法。数据、代码和模型将公开发布。