【跟马少平老师学AI】-【神经网络是怎么实现的】(五)梯度消失问题

一句话归纳:

1)用sigmoid激活函数时,BP算法更新公式为:

用sigmoid函数,O取值为0~1,O(1-O)最大值为0.25,若神经网络层数多,则会造成更新项趋近于0,称为梯度消失。

2)GooLeNet解决梯度消失的问题:

  • 在不同的深度构造了3个输出。
  • inception模块:

  • 其中,1*1卷积起到改变维度的作用,减少参数个数,比如,输入为192个通道,经过32个1*1卷积核运算,即可以将通道数降为32。

3)神经网络并不完全随着深度的增加提高正确率。

4)残差网络(ResNet):

残差块:

  • 通过恒等映射,梯度无衰减传递,消除梯度消失。
  • 解决网络退化问题。
  • 虚线恒等映射,在恒等映射的基础上,加个卷积层,以和F(X)同等大小、同样通道数的映射。
  • 全局平均池化层,经过池化,每个通道变成一个平均数。

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-05-04 03:30:01       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-05-04 03:30:01       106 阅读
  3. 在Django里面运行非项目文件

    2024-05-04 03:30:01       87 阅读
  4. Python语言-面向对象

    2024-05-04 03:30:01       96 阅读

热门阅读

  1. 软设之死锁问题

    2024-05-04 03:30:01       31 阅读
  2. JVM面试

    2024-05-04 03:30:01       33 阅读
  3. 生信分析最好的系统架构:个人观点

    2024-05-04 03:30:01       35 阅读
  4. mindjourney和stable diffusion该怎么选?

    2024-05-04 03:30:01       37 阅读
  5. 一些不错的技术网站(持续更新)

    2024-05-04 03:30:01       36 阅读
  6. 力扣-977.有序数组的平方

    2024-05-04 03:30:01       30 阅读