深度学习论文解读分享之diffGrad:一种卷积神经网络优化方法

IEEE TNNLS 2020:diffGrad: 一种卷积神经网络优化方法

题目

diffGrad: An Optimization Method for Convolutional Neural Networks

作者

Shiv Ram Dubey , Member, IEEE, Soumendu Chakraborty , Swalpa Kumar Roy , Student Member, IEEE, Snehasis Mukherjee, Member, IEEE, Satish Kumar Singh, Senior Member, IEEE,
and Bidyut Baran Chaudhuri, Life Fellow, IEEE

关键词

Adaptive moment estimation (Adam), difference of gradient, gradient descent, image classification, neural networks, optimization, residual network.

研究动机

解决模型训练容易陷入局部最优的情况

模型在这里插入图片描述

随机梯度下降(SGD)是深度神经网络成功的核心技术之一。梯度提供了函数变化速度最快的方向的信息。基本SGD的主要问题是对所有参数以相同大小的步长变化,而不考虑梯度行为。因此,深度网络优化的一个有效方法是对每个参数具有自适应的步长。最近,人们试图改进梯度下降方法,如AdaGrad、AdaDelta、RMSProp和自适应矩估计(ADAM)。这些方法依赖于过去梯度平方的指数滑动平均的平方根,因此这些方法没有利用梯度的局部变化,因此提出了一种基于当前梯度和最近过去梯度之差的优化器(即DiffGrad)。在DiffGrad优化技术中,对每个参数的步长进行调整,使其具有较大的步长和较小的步长,以适应较快的梯度变化参数和较低的梯度变化参数。收敛分析采用在线学习框架的遗憾界方法。本文对三个合成的复非凸函数进行了深入的分析。并在CIFAR10和CIFAR100数据集上进行了图像分类实验,观察了DifferGrad相对于SGDM、AdaGrad、AdaDelta、RMSProp、AMSGrad等最新优化器的性能,实验中采用了基于残差单元(ResNet)的卷积神经网络(CNN)结构,实验结果表明,DiffGrad的性能优于其他优化器。此外,我们还表明,对于使用不同的激活函数训练CNN,DiffGrad的性能是一致的。

亮点

采用了类似学习率动量(momentum)的策略。

论文以及代码

论文链接: link
代码链接: link

相关推荐

最近更新

  1. TCP协议是安全的吗?

    2024-01-20 13:46:03       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-20 13:46:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-20 13:46:03       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-20 13:46:03       20 阅读

热门阅读

  1. 代码随想录第22天| 二叉树

    2024-01-20 13:46:03       37 阅读
  2. 算法训练营Day36(贪心5)

    2024-01-20 13:46:03       38 阅读
  3. git format用法学习

    2024-01-20 13:46:03       33 阅读
  4. thinkphp6 模糊查找json下的字段值

    2024-01-20 13:46:03       29 阅读
  5. 【回溯】79. 单词搜索

    2024-01-20 13:46:03       34 阅读
  6. Flink中ProcessFunction的用法

    2024-01-20 13:46:03       36 阅读
  7. C++入门学习(四)常量

    2024-01-20 13:46:03       34 阅读
  8. Jira REST API_创建共享配置的Jira项目

    2024-01-20 13:46:03       29 阅读
  9. 从0开始python学习-50.pytest之多接口用例封装

    2024-01-20 13:46:03       34 阅读
  10. 【笔记】Helm-3 主题-7 使用基于OCI的注册中心

    2024-01-20 13:46:03       32 阅读