图片来源@视觉中国
2022年,生成模型(Generative models)取得了巨大的进展。不仅可以从自然语言提示中生成逼真的 2D 图像,也在合成视频和 3D 形状生成方面有着不俗的表现。
(资料图片仅供参考)
虽然目前的生成模型可以生成静态的 3D 对象,但合成动态场景更加复杂。而且,由于目前缺少现成的 4D 模型集合(无论是有或没有文本注释),相比于 2D 图像和视频生成,由文本到 4D 的生成更加困难。
那么,如何基于简单的文本直接生成复杂的 3D 动态场景呢?
一种可能的方法是,从预先训练好的 2D 视频生成器开始,从生成的视频中提取 4D 重建。然而,从视频中重建可变形物体的形状是一项非常具有挑战性的工作。
近日,来自 Meta 的研究团队结合视频和 3D 生成模型的优点,提出了一个新的文本到 4D(3D+时间)生成系统——MAV3D(Make-A-Video3D)。
据介绍,该方法使用 4D 动态神经辐射场(NeRF),通过查询基于文本到视频(T2V)的扩散模型,对场景外观、密度和运动一致性进行了优化。
同时,由特定文本生成的动态视频可以从任何摄像机位置和角度观看,并且可以合成到任何 3D 环境中。
图|由MAV3D生成的样本。行表示时间的变化,列表示视点的变化。最后一列显示其相邻列的深度图像。(来源:该论文)
研究团队表示,MAV3D 是第一个基于文本描述生成 3D 动态场景的方法,可以为视频游戏、视觉效果或 AR/VR 生成动画 3D 资产。相关研究论文以“Text-To-4D Dynamic Scene Generation”为题,已发表在预印本网站 arXiv 上。
据论文描述,MAV3D 的实现不需要任何 3D 或 4D 数据,而且 T2V 模型也只是在文本-图像对和未标记的视频数据上训练的。
以往研究证明,仅仅使用视频生成器优化动态 NeRF 不会产生令人满意的结果。为了实现由文本到 4D 的目标,必须克服以下 3 个挑战:
找到一个端到端、高效且可学习的动态 3D 场景的有效表示;有一个监督来源,因为没有可供学习的大规模(文本,4D)数据集。需要在空间和时间上缩放输出的分辨率,因为 4D 输出域是内存密集型的和计算密集型的。那么,由简单的文本描述到复杂的 3D 动态场景生成,具体是如何实现的呢?
首先,研究团队仅充分利用了三个纯空间平面(绿色),渲染单个图像,并使用 T2I 模型计算 SDS 损失。
然后,他们添加了额外的三个平面(橙色,初始化为零以实现平滑过渡),渲染完整的视频,并使用 T2V 模型计算 SDS-T 损失。
最后,即超分辨率微调(SRFT)阶段,他们额外渲染了高分辨率视频,并将其作为输入传递给超分辨率组件。
图|MAV3D 的实现路径(来源:该论文)
另外,MAV3D 也可以完成由图像到 4D 应用的转换。给定一个输入图像,通过提取它的 CLIP embedding,并以此来约束(condition)MAV3D。
图|图像到4D应用。
然而,这一方法也存在一定的局限性。例如,在实时应用中,将动态 NeRF 转换为不相交网格序列的效率很低。研究团队认为,如果直接预测顶点的轨迹,或许可以改进。
此外,利用超分辨率信息已经提高了表示的质量,但对于更高细节的纹理还需要进一步改进。
最后,表示的质量取决于 T2V 模型从各种视图生成视频的能力。虽然使用依赖于视图的提示有助于缓解多面问题,但进一步控制视频生成器将是有帮助的。
参考链接:
https://arxiv.org/abs/2301.11280https://make-a-video3d.github.io/关键词: