常见激活函数

激活函数是神经网络中的一种非线性变换,它在神经元的输出上引入了非线性性质,使神经网络能够更好地学习和适应复杂的数据模式。以下是一些常见的激活函数:

Sigmoid 函数

在这里插入图片描述

Sigmoid 函数将输入映射到(0,1)之间,常用于输出层的二分类问题。然而,它在深度神经网络中的梯度消失问题(vanishing gradient problem)使得在隐藏层中的使用逐渐减少。

Hyperbolic Tangent 函数(tanh)

在这里插入图片描述

tanh 函数将输入映射到 (-1,1) 之间,相比 Sigmoid 函数,tanh 的输出范围更广,有助于缓解梯度消失问题。

Rectified Linear Unit 函数(ReLU):

在这里插入图片描述

ReLU 是一种简单而广泛使用的激活函数,对正值保持不变,负值置零。它在许多情况下表现良好,但可能存在“死亡 ReLU”问题,即某些神经元可能永远不会被激活。

Leaky Rectified Linear Unit 函数(Leaky ReLU)

在这里插入图片描述

Leaky ReLU 在负值部分引入一个小的斜率 αα,以解决死亡 ReLU 问题,使得负值时仍然有些梯度。

Parametric Rectified Linear Unit 函数(PReLU)

在这里插入图片描述

PReLU 是 Leaky ReLU 的一种扩展,不同之处在于它引入了一个可学习的参数 αα。

Exponential Linear Unit 函数(ELU)

在这里插入图片描述

ELU 是一种类似于 Leaky ReLU 的激活函数,但在负值时具有更平滑的曲线,并且可以接近于负无穷,有助于缓解梯度消失问题。

这些激活函数各有优劣,选择适当的激活函数通常取决于具体的问题和网络架构。ReLU 及其变体是目前深度学习中最常用的激活函数之一。

相关推荐

最近更新

  1. TCP协议是安全的吗?

    2023-12-22 20:28:02       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2023-12-22 20:28:02       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2023-12-22 20:28:02       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2023-12-22 20:28:02       20 阅读

热门阅读

  1. 【Mysql】哪些sql无法使用到索引

    2023-12-22 20:28:02       32 阅读
  2. 掌握Jenknis基础概念

    2023-12-22 20:28:02       34 阅读
  3. 如何查看计算机(笔记本)设备的SN

    2023-12-22 20:28:02       64 阅读
  4. C语言指针基础题(三)

    2023-12-22 20:28:02       48 阅读
  5. elasticsearch8.5版本集成springboot高版本3.0.0开发

    2023-12-22 20:28:02       32 阅读
  6. 列表的上移动和下移动实现

    2023-12-22 20:28:02       39 阅读
  7. GSON 泛型对象反序列化解决方案

    2023-12-22 20:28:02       41 阅读
  8. k8s中Chart模板流程控制if_with_range和变量

    2023-12-22 20:28:02       40 阅读
  9. Watchdogs

    Watchdogs

    2023-12-22 20:28:02      35 阅读