生成模型中的潜在遍历作为潜在流的潜在流动性。

420次阅读
没有评论

Latent Traversals in Generative Models as Potential Flows

解决问题:本文旨在解决深度生成模型中潜空间结构的理解问题,特别是如何进行有意义的潜空间遍历,这是一个开放的研究挑战。相较于目前线性建模潜空间的方法,本文提出使用学习动态潜势场的方法进行建模,通过样本沿着梯度流的方式进行潜空间遍历。

关键思路:本文的关键思路是利用学习的动态潜势场建模潜空间,通过样本沿着梯度流的方式进行潜空间遍历。与目前线性建模潜空间的方法相比,本文提出的方法更加灵活,能够更好地实现语义上的解耦。同时,本文的方法可以作为一个正则化项在训练中使用,有助于学习结构化的表示,提高模型的对类似结构化数据的似然性。

其他亮点:本文的模型在实验中表现出更好的语义解耦性能,比当前的最先进方法更好。此外,本文的方法可以用作训练的正则化项,提高模型的泛化能力。作者提供了开源代码。

关于作者:Yue Song、Andy Keller、Nicu Sebe、Max Welling分别来自荷兰阿姆斯特丹大学、谷歌、意大利特伦托大学和荷兰阿姆斯特丹大学。他们都是深度学习领域的专家,在GAN、VAE、半监督学习等方向都有较多的研究成果。

相关研究:近期的相关研究包括:《Understanding disentangling in β-VAE》(Kim et al.,ICLR 2018)、《InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets》(Chen et al.,NIPS 2016)等。

论文摘要:本文的题目为“生成模型中的潜在遍历作为潜在流”,作者为Yue Song、Andy Keller、Nicu Sebe和Max Welling。尽管深度生成模型取得了显著的进展,但它们的潜在空间结构仍然不太清楚,因此进行语义上有意义的潜在遍历的任务仍然是一个开放的研究挑战。大多数先前的工作旨在通过线性建模潜在结构,并找到相应的线性方向,从而产生“分离”的生成结果来解决这一挑战。在本文中,我们提出使用学习的动态潜在景观来建模潜在结构,从而通过样本沿着景观梯度的流动来执行潜在遍历。受物理学、最优传输和神经科学的启发,这些潜在景观被学习为物理上逼真的偏微分方程,从而使它们能够在空间和时间上灵活变化。为了实现分离,同时学习多个潜在景观,并通过分类器约束它们是不同的和语义自洽的。在实验中,我们证明了我们的方法比现有技术水平更能够定性和定量地分离轨迹。此外,我们还证明了我们的方法可以作为训练期间的正则化项集成,从而作为向学习结构化表示的归纳偏差,最终提高了类似结构化数据的模型似然性。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy