less than 1 minute read

GAN 解决了生成式模型的一些问题, 并且对其他方法的发展也有一定的启发意义, 但是 GAN 并不完美, 它在解决已有问题的同时也引入了一些新的问题;

1 训练难点

1.1 理论中存在的问题
经典 GAN 的判别器有两种 loss,分别是: \begin{equation}\label{loss_1} \mathbb E_{x\sim p_{g}}[log(1-D(x))] \end{equation} \begin{equation}\label{loss_2} \mathbb E_{x\sim p_g}[-log(D(x))] \end{equation}

公式 $\eqref{loss_1}$ :在判别器达到最优的时候,等价于最小化生成分布与真实分布之间的 JS 散度,由于随机生成分布很难与真实分布有不可忽略的重叠以及 JS 散度的突变特性,使得生成器面临梯度消失的问题;
公式 $\eqref{loss_2}$ :在最优判别器下,等价于既要最小化生成分布与真实分布直接的 KL 散度,又要最大化其 JS 散度,相互矛盾,导致梯度不稳定,而且 KL 散度的不对称性使得生成器宁可丧失多样性也不愿丧失准确性,导致 collapse mode现象;

1.2 实践中存在的问题
GAN在实践中存在两个问题:

其一,Ian Goodfellow 在理论中虽然证明了 GAN 是可以达到纳什均衡的;可是我们在实际实现中,我们是在参数空间优化,而非函数空间,这导致理论上的保证在实践中是不成立的;
其二,GAN 的优化目标是一个极小极大(min max)问题,即 $\mathop {\min }\limits_G \mathop {\max }\limits_D V(G,D)$ ,也就是说,优化生成器的时候,最小化的是 $\mathop{max} \limits_D V(G,D)$;可是我们是迭代优化的,要保证 $V(G,D)$ 最大化,就需要迭代非常多次,这就导致训练时间很长;如果我们只迭代一次判别器,然后迭代一次生成器,不断循环迭代;这样原先的极小极大问题,就容易变成极大极小(max min)问题,可二者是不一样的,即:
\begin{equation} \mathop {\min }\limits_G \mathop {\max }\limits_D V(G,D)\neq\mathop{\max}\limits_D \mathop\min\limits_G V(G,D) \end{equation}

按极小极大问题考虑,那么迭代就是这样的,生成器先生成一些样本,然后判别器给出错误的判别结果并惩罚生成器,于是生成器调整生成的概率分布;可是这样往往导致生成器变“懒”,只生成一些简单的,重复的样本,即缺乏多样性,也叫 mode collapse

1.3 训练不稳定
GAN 最突出的优点同时也是它最大的问题根源;GAN 采用对抗学习的准则,理论上还不能判断模型的收敛性和均衡点的存在性;
训练过程需要保证两个对抗网络的平衡和同步,而实际过程中两个对抗网络的同步不易把控,训练过程可能不稳定;
Wasserstein GAN 彻底解决了训练不稳定问题;
容易崩溃,这个问题有学者提出了许多解决方案,比如 WGAN,LSGAN 等;

1.4 收敛评估指标 木便并没有一个指标可以评估生成器和判别器是否收敛

2 可解释性差

作为以神经网络为基础的生成式模型,GAN 存在神经网络类模型的一般性缺陷,即可解释性差;

3 模式崩溃

又叫模型坍塌,生成器陷入一个极小的分布内,生成的样本不再变化;
Wasserstein GAN 基本解决了崩溃模式现象;
尽管有很多相关的研究,但是由于图像数据的高维度特性,这个问题依然还没完全解决;

4 计数问题

因视角太多而在特定位置生成过多的结构;

5 角度问题

生成样本的视角错误;

6 全局结构问题

生成样本的结构混乱;


TOP

附录

A 参考资料

[1]. Kuntal G. 著, 刘梦馨 译. GAN 实战生成对抗网络[M]. 北京:电子工业出版社, 2018.38-41.
[2]. 史丹青. 生成对抗网络入门指南[M]. 北京:机械工业出版社, 2018.
[3]. Goodfellow I. NIPS 2016 tutorial: generative adversarial networks. arXiv preprint arXiv: 1701.00160, 2016.

Categories: , ,

Updated:

Comments