神经网络中的激活函数举例,它们各自的特点,以及哪个激活函数效果更好,为什么

  • sigmoid: \(\sigma(x)=1/(1+e^{-x})\);
    • 优:将数值压缩到 0 1,导数为 \(\sigma(x)(1-\sigma(x))\) 好算。
    • 劣:输出均值非0(0.5),梯度消失(Gradient vanishing)每次传过来的梯度都会乘上小于1的值,靠近输出的层 参数更新幅度大,而靠近输入的层 参数更新幅度小。
  • ReLU: max(0, x) REctified Linear Unit
    • 优:不饱和(梯度不会过小),计算量小
    • 劣:输出均值非0,Dead ReLU:某层输入< 0,相应的输出值为0,那么此时该层就会"死亡",参数不会更新,而且不可逆转,神经元永远失效。
    • Leaky ReLU: >0, 1 | <0, 0.1。解决 Dead ReLU。
  • Tanh:
    • 优:输出均值为0,原点附近与 y = x 函数相近;
    • 劣:梯度消失(Gradient vanishing,但比 sigmoid 好),计算量大。

相关推荐

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-18 05:50:04       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-18 05:50:04       71 阅读
  3. 在Django里面运行非项目文件

    2024-07-18 05:50:04       58 阅读
  4. Python语言-面向对象

    2024-07-18 05:50:04       69 阅读

热门阅读

  1. derivate_gauss 将图像与高斯函数的导数卷积

    2024-07-18 05:50:04       22 阅读
  2. 掌握Xcode Storyboard:iOS UI设计的可视化之旅

    2024-07-18 05:50:04       21 阅读
  3. Anylogic中Excel 文件(Excel file)的使用

    2024-07-18 05:50:04       17 阅读
  4. uniapp动态计算并设置元素高度

    2024-07-18 05:50:04       22 阅读
  5. uniapp 解决scroll-view组件 refresher-triggered刷新无效

    2024-07-18 05:50:04       20 阅读
  6. AWS ECS 服务创建 CloudWatch 告警

    2024-07-18 05:50:04       19 阅读
  7. 基于 Vue 3 和 Element Plus 构建图书管理系统

    2024-07-18 05:50:04       24 阅读
  8. Android中Context概述

    2024-07-18 05:50:04       19 阅读
  9. 数据库管理-第221期 Oracle的高可用-04(20240717)

    2024-07-18 05:50:04       21 阅读