Master X Blog

ECNU Student | Amateur Author

NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)

 

[1] Glow: Generative Flow with Invertible 1×1 Convolutions

Diederik P. Kingma, Prafulla Dhariwal

OpenAI, Google AI

本地下载

 

流式生成模型(Dinh et al. 2014)在概念上具有吸引性,有以下几个原因,它能处理精确的对数似然度,能处理精确的隐变量推理,还可以并行处理训练和合成。

这篇文章提出了Glow,这是一种简单的生成式流式模型,该模型利用可逆的1×1卷积。这种方法在基准数据集上在对数似然度方面取得了显著的提升。令人吃惊的是,流式生成模型利用一般的对数似然度目标优化时,可以高效地合成和变换近似真实的大图片。

基于似然度的方法可以分为以下三类《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

基于流的生成方法具有以下特性《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

本文所提模型图示如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

本文所提流的三个主要组成部分,逆以及对数行列式统计如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

三种方法的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

几种方法在不同数据集上的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

其中RealNVP对应的论文为

Dinh, L., Sohl-Dickstein, J., and Bengio, S. (2016). Density estimation using Real NVP. arXiv preprint arXiv:1605.08803.

代码地址

https://github.com/tensorflow/models/tree/master/research/real_nvp

https://github.com/taesungp/real-nvp

 

代码地址

https://github.com/openai/glow

 

 

 

[2] Robustness of conditional GANs to noisy labels

Kiran Koshy Thekumparampil, Ashish Khetan, Zinan Lin, Sewoong Oh

University of Illinois at Urbana-Champaign, Carnegie Mellon University

本地下载

 

这篇文章主要研究如何从带有噪声标签的样本中学习条件生成器,这里的带噪声标签是指标签由随机噪声污染了。条件GANs的标准训练方法不仅会生成带有错误标签的样本,而且会生成质量较差的样本。

根据噪声模型是否已知可以分为两张场景。当噪声分布已知时,本文提出一种新的结构,称为鲁棒条件GAN (RCGAN)。其主要思想在于在传入对抗判别器之前,对生成样本的标签施加干扰,迫使生成器产生干净标签的样本。这种在匹配噪声通道传播的方法由伴随的乘法近似界来解释,这种界是RCGAN的损失函数以及干净真实分布和生成器分布之间的距离得到的。这说明本文所提方法的判别器结构精心选择时,即映射判别器,该方法具有鲁棒性。

当噪声分布未知时,该结构可以进行扩展,简称RCGAN-U,该方法能够在训练判别器的同时学习噪声模型。在数据集MNIST和CIFAR-10上的实验表明两种方法都比基准方法有所提升,而且RCGAN-U的性能跟RCGAN的性能非常接近。

RCGAN的结构图示如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

几种方法在数据集MNIST上的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

几种方法在数据集CIFAR-10上的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

代码地址

https://github.com/POLane16/Robust-Conditional-GAN

https://github.com/wenxinxu/resnet-in-tensorflow

 

 

 

[3] Gaussian Process Prior Variational Autoencoders

Francesco Paolo Casale, Adrian V Dalca, Luca Saglietti, Jennifer Listgarten , Nicolo Fusi

Microsoft Research New England, MIT, Martinos Center for Biomedical Imaging, MGH, HMS, Italian Institute for Genomic Medicine, University of California, Berkeley (CA)

本地下载

 

变分自编码在通过无监督方式学习复杂数据分布中是一种效果较好并且广泛应用的模型。变分自编码中一个重要的限制在于其关于样本的隐含表示是独立同分布的。

然而,很多重要的数据集,比如图像时间序列,该假设太强了:这些样本之间的协方差在时间上可以生成更合适的模型,而且可以提升下游任务的性能。

这篇文章提出一种新的模型,高斯过程先验的变分自编码(GPPVAE),可以解决上述问题。GPPVAE能够将VAE的效果和GP先验对相关性的建模能力结合起来。为了使得这种新模型的推理比较高效,该文作者对协方差矩阵的结构进行了调整,并且给出一种新的随机反向传播策略,该策略能够以分布式并且低内存的方式来计算随机梯度。

在两个图像数据集上的效果表明该方法不仅优于条件变分自编码(CVAEs),并且优于另外一种VAE的变种。

GPPVAE的结构及过程图示如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

该算法的主要步骤如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

几种方法在数据集MNIST上的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

几种方法在人脸数据集上的效果对比如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

实验中涉及的几种方法解释如下《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

CVAE对应的论文为

Learning structured output representation using deep conditional generative models. NIPS 2015

代码地址

https://github.com/hujinsen/pytorch_VAE_CVAE

 

《NIPS2018论文及代码集锦(29)(亮点:可逆卷积流模型;条件GANs;高斯过程先验变分自编码)》

 

代码地址

https://github.com/fpcasale/GPPVAE

点赞

发表评论

电子邮件地址不会被公开。 必填项已用*标注

召唤小麦