前馈神经网络复习

 

  习题4-1  对于一个神经元(wx + b),并使用梯度下降优化参数w时如果输入x 恒大于0,其收敛速度会比零均值化的输入更慢

在全连接网络模型中,将输入的x值进行零均值化是一种预处理方法,旨在将训练集中的每个输入值x减去其均值,以0为中心,满足均值为0。这样做的优点是在反向传播时加快网络中每层权重参数的收敛,避免Z型更新的情况,从而加快神经网络的收敛速度。

零均值化,数据分布会距离零比较近,而激活函数在0附近的梯度比较大,这样收敛的快,此外,输入恒大于0,可能会引起抖动,反而不利于收敛

习题4-7 为什么在神经网络模型的结构化风险函数中不对偏置b进行正则化? 

习题4-8 为什么在用反向传播算法进行参数学习时要采用随机参数初始化的方式而不是直接令 w =0,b =0? 

在使用反向传播算法进行参数学习时,采用随机参数初始化而不是直接将权重 w 和偏置 b 初始化为零的主要原因有两个:

  1. 对称性破坏: 如果将所有权重 w 初始化为相同的值,例如零,那么在模型进行反向传播的过程中,所有权重将保持相同的值,并且在更新梯度时会一直保持对称性。这导致了一个问题,即无论多少个神经元,它们都会以相同的方式响应相同的输入,这样就失去了神经网络学习特征的能力。

  2. 避免梯度消失: 如果所有权重和偏置都初始化为零,那么在反向传播的过程中,所有神经元的梯度将是相同的。这样,在进行梯度下降更新时,每个参数都会按相同的步长更新,导致网络在训练过程中很难学到有用的特征,同时也可能遇到梯度消失的问题。

 

 参考链接:

NNDL 作业五-CSDN博客

相关推荐

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2023-12-31 14:14:04       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2023-12-31 14:14:04       100 阅读
  3. 在Django里面运行非项目文件

    2023-12-31 14:14:04       82 阅读
  4. Python语言-面向对象

    2023-12-31 14:14:04       91 阅读

热门阅读

  1. ubuntu 安装docker GPG error缺少公钥解决方法

    2023-12-31 14:14:04       62 阅读
  2. 4. 深入 Python 流程控制

    2023-12-31 14:14:04       48 阅读
  3. 排查 JVM 中的 OOM 问题详细指南

    2023-12-31 14:14:04       58 阅读
  4. 解释区块链技术的应用场景和优势

    2023-12-31 14:14:04       70 阅读
  5. Vue3使用WangEditor编辑器

    2023-12-31 14:14:04       63 阅读
  6. Linux cat 命令

    2023-12-31 14:14:04       63 阅读
  7. 【WPF.NET开发】预览事件

    2023-12-31 14:14:04       57 阅读
  8. 关于WPF MVVM 的详细使用过程以及注意的问题

    2023-12-31 14:14:04       48 阅读
  9. pd.groupby的2种用法

    2023-12-31 14:14:04       59 阅读
  10. Linux Shell 013-文本列过滤工具cut

    2023-12-31 14:14:04       66 阅读
  11. 09.kubernetes 部署calico / flannel网络插件

    2023-12-31 14:14:04       59 阅读