46、激活函数 - Relu 激活

本节介绍一个在神经网络中非常常见的激活函数 - Relu 激活函数。

什么是ReLU激活函数

ReLU 英文名为 Rectified Linear Unit,又称修正线性单元,是一种简单但很有效的激活函数,它的定义如下:

即当输入 x 大于零时,输出等于他自己;当输入小于等于零时,输出为零,下面是relu的图像表示。

看着是不是很简单,但是就是因为如此简单,才使得 Relu 激活在神经网络中非常常见。

为何ReLU激活函数如此常见?

ReLU之所以广泛应用,主要归功于以下几个方面:

  1. ReLU引入了非线性因素

    上节我们说了在神经网络中非线性因素是非常重要的,Relu 函数本身就是一个非线性函数,它大于零的部分是线性的,但是小于零的部分是零,从而整体上表现为一种非线性特性。

相关推荐

  1. 2、卷积和ReLU激活函数

    2024-01-02 01:58:02       54 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-01-02 01:58:02       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-01-02 01:58:02       100 阅读
  3. 在Django里面运行非项目文件

    2024-01-02 01:58:02       82 阅读
  4. Python语言-面向对象

    2024-01-02 01:58:02       91 阅读

热门阅读

  1. MyBatis-注解的方式实现接口声明的方法

    2024-01-02 01:58:02       68 阅读
  2. C++判定终端ip和目标ip是否在同一局域网内

    2024-01-02 01:58:02       39 阅读
  3. SpringBoot 整合 JWT

    2024-01-02 01:58:02       55 阅读
  4. Router 面试题及答案

    2024-01-02 01:58:02       57 阅读
  5. LeetCode——链表

    2024-01-02 01:58:02       58 阅读
  6. centos 编译安装 git

    2024-01-02 01:58:02       59 阅读
  7. codeforces 118 div2(a,b,c)

    2024-01-02 01:58:02       59 阅读