GAN相关知识

GAN训练tricks

  • generator的最后一层一般使用tanh激活函数,这样可以使训练更加稳定。但是我在实际用的时候,使用sigmoid和tanh的效果是差不多的;
  • 需要注意:discriminator的最后一层的输出的激活函数选择tanh,会导致cuda trigger问题,因此,一般来说,discriminator会选择sigmoid函数作为激活函数
  • 在实际训练的时候,G的loss在不断地下降,而D的loss在上升,这不是说网络性能不好,是正常的,只要两者loss最后收敛到一个比较稳定的值附近就可以。
  • G的学习率通常来说比D的学习率大一个数量级就会好很多。

PatchGAN (FCN)

当生成的图片过大时,可能生成的图片中只有局部区域存在伪影,而其余部分生成质量很好,此时若让判别器对整张图片进行判断,那么一个单一的数值可能无法良好地描述这张图片的质量。 PatchGAN 把一张完整的待鉴定图片利用滑动窗口裁剪成 70x70 大小的小图片。接着将这些图片依次输入判别器进行鉴定。最后将判别器对多张小图的评分求和,作为最终评分。

我的看法:这种结构和 FCN 全卷积网络 Fully Convolutional Network 不谋而合,若在 FCN 感受野达到 70x70 的那一层进行均值池化,则其效果与 patchGAN 是类似的,甚至用 FCN 更好。

BN为什么使用mini-batch?

主要是由于目前主流的梯度更新方式是mini-batch gradient decent,小批的梯度下降,这种方法把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来就不容易跑偏,减少了随机性。另一方面因为批的样本数与整个数据集相比小了很多,计算量也不是很大。

为什么BN层一般用在线性层和卷积层后面,而不是放在非线性单元后

因为非线性单元的输出分布形状会在训练过程中变化,归一化无法消除它的方差偏移,相反的,全连接和卷积层的输出一般是一个对称,非稀疏的一个分布,更加类似高斯分布,对他们进行归一化会产生更加稳定的分布。

 

相关推荐

  1. GAN相关知识

    2024-06-12 12:04:02       6 阅读
  2. 肺癌相关知识

    2024-06-12 12:04:02       30 阅读
  3. 分享相关知识

    2024-06-12 12:04:02       32 阅读
  4. Mybatis相关知识

    2024-06-12 12:04:02       34 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-06-12 12:04:02       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-06-12 12:04:02       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-06-12 12:04:02       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-06-12 12:04:02       20 阅读

热门阅读

  1. IT6695: Single Chip HDMI to VGA Converter with Embedded MCU

    2024-06-12 12:04:02       7 阅读
  2. docker 启动 rabbitmq 国内启动调试

    2024-06-12 12:04:02       9 阅读
  3. 汇编:保护模式下的寻址方式

    2024-06-12 12:04:02       5 阅读
  4. Go语言进阶教程

    2024-06-12 12:04:02       5 阅读
  5. C#面:阐述 POCO 是什么意思

    2024-06-12 12:04:02       7 阅读
  6. 设备驱动程序

    2024-06-12 12:04:02       5 阅读
  7. C++作业第四天

    2024-06-12 12:04:02       6 阅读
  8. 图论第9天

    2024-06-12 12:04:02       7 阅读
  9. 多进程并发服务器

    2024-06-12 12:04:02       8 阅读
  10. 2024年全国高考作文题目汇总

    2024-06-12 12:04:02       7 阅读
  11. 求最值(C++)

    2024-06-12 12:04:02       7 阅读
  12. 【京存】无惧卡顿

    2024-06-12 12:04:02       5 阅读