机器学习之梯度下降法直观理解

        形象化举例,由上图所示,假如最开始,我们在一座大山上的某处位置,因为到处都是陌生的不知道下山的路,所以只能摸索着根据直觉,走一步算一步。在此过程中,每走到一个位置的时候,都会求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。不断循环求梯度,就这样一步步地走下去,一直走到我们觉得已经到了山脚。

当然这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山势低处。由此,从上面的解释可以看出,梯度下降不一定能够找到全局的最优解,有可能是一个局部的最优解。当然,如果损失函数是凸函数,梯度下降法得到的解就一定是全局最优解。

核心思想归纳:

  1. 初始化参数,随机选取取值范围内的任意数;
  2. 迭代操作:
    a) 计算当前梯度;
    b) 修改新的变量;
    c) 计算朝最陡的下坡方向走一步;
    d) 判断是否需要终止,如否,返回a)
  3. 得到全局最优解或者接近全局最优解。

相关推荐

  1. 机器学习——坐标轴下降梯度下降

    2024-02-20 10:16:03       19 阅读
  2. 机器学习理解梯度

    2024-02-20 10:16:03       8 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-02-20 10:16:03       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-02-20 10:16:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-02-20 10:16:03       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-02-20 10:16:03       20 阅读

热门阅读

  1. 每天一个数据分析题(一百五十九)

    2024-02-20 10:16:03       32 阅读
  2. 23种设计模式-Golang(完整版)

    2024-02-20 10:16:03       25 阅读
  3. ubuntu18 环境安装

    2024-02-20 10:16:03       30 阅读
  4. k8s容器以及基础设施优化

    2024-02-20 10:16:03       27 阅读
  5. iOS 使用Image I/O 实现超大图片降采样

    2024-02-20 10:16:03       27 阅读
  6. axios 官网速通

    2024-02-20 10:16:03       29 阅读