MIT & 谷歌 | Persistent Nature: 一个无限3D世界的生成模型

992次阅读
没有评论

【推荐理由】本文研究了无条件合成无限自然场景的任务,实现了任意大的摄像机运动,并保持持久的3D世界模型。

Persistent Nature: A Generative Model of Unbounded 3D Worlds

Lucy Chai, Richard Tucker, Zhengqi Li, Phillip Isola, Noah Snavely
[MIT & Google Research & Cornell Tech]

【论文链接】https://arxiv.org/pdf/2303.13515.pdf

【项目链接】https://chail.github.io/persistent-nature/

【摘要】尽管最近的3D图像生成模型的图像质量越来越逼真,但它们通常在固定范围的3D体积上运行,摄像机运动有限。我们研究了无条件合成无限自然场景的任务,实现了任意大的摄像机运动,并保持持久的3D世界模型。我们的场景表示包括可扩展的平面场景布局网格和全景天空圆顶,通过3D解码器和体积渲染可以从任意摄像机位置呈现。基于这种表示,我们仅从单视图互联网照片中学习生成世界模型。我们的方法使得可以在3D风景中模拟长时间的飞行,同时保持全局场景的一致性——例如,返回起点将产生相同的场景视图。我们的方法能够实现超越当前3D生成模型的固定范围的场景外推,并支持相对于摄像机的持续、独立的世界表示,与自回归的3D预测模型形成对比。

关于作者 Zhengqi Li

他是Google Research的研究科学家,研究兴趣涵盖了3D/4D计算机视觉、基于图像的渲染和计算摄影,尤其是针对野外图像和视频的研究。

他在康奈尔大学获得了计算机科学博士学位,导师是Noah Snavely教授。他也是CVPR 2019最佳论文荣誉提名、2020年Google博士奖学金、2020年Adobe研究奖学金、2021年百度全球百强人工智能新锐和2023年CVPR最佳论文获得者之一。

MIT & 谷歌 | Persistent Nature: 一个无限3D世界的生成模型

MIT & 谷歌 | Persistent Nature: 一个无限3D世界的生成模型

MIT & 谷歌 | Persistent Nature: 一个无限3D世界的生成模型

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy