全国服务热线:0898-08980898
联系我们 contact us
地址:
海南省海口市
邮箱:
admin@youweb.com
电话:
0898-08980898
传真:
1234-0000-5678
行业新闻 当前位置: 首页 > 傲世皇朝新闻 > 行业新闻
优化器详解_1添加时间:2024-04-15

深度学习的目标是通过不断改变网络参数,使得参数能够对输入做各种非线性变换拟合输出,本质上就是一个函数去寻找最优解,所以如何去更新参数是深度学习研究的重点。通常将更新参数的算法称为优化器,字面理解就是通过什么算法去优化网络模型的参数。常用的优化器就是梯度下降。接下来讲的就是梯度下降和进一步优化梯度下降的各种算法。

梯度下降算法特别容易理解,函数的梯度方向表示了函数值增长速度最快的方向,那么和它相反的方向就可以看作是函数值减少速度最快的方向。对机器学习模型优化的问题,当目标设定为求解目标函数最小值时,只要朝着梯度下降的方向前进,就能不断逼近最优值。

根据用多少样本量来更新参数将梯度下降分为三类:BGD,SGD,MBGD

(1)BGD:Batch gradient descent
每次使用整个数据集计算损失后来更新参数,很显然计算会很慢,占用内存大且不能实时更新,优点是能够收敛到全局最小点,对于异常数据不敏感。

(2)SGD:Stochastic gradient descent
这就是常说的随机梯度下降,每次更新度随机采用一个样本计算损失来更新参数,计算比较快,占用内存小,可以随时新增样本。这种方式对于样本中的异常数据敏感,损失函数容易震荡。容易收敛到局部极小值,但由于震荡严重,会跳出局部极小,从而寻找到接近全局最优的解。
(3)MBGD: Mini-batch gradient descent
小批量梯度下降,很好理解,将BGD和SGD结合在一起,每次从数据集合中选取一小批数据来计算损失并更新网络参数。

综上;

用多少样本量来更新参数1部分全部
梯度下降类型随机梯度下降(SGD)小批量梯度下降(MBGD)批量梯度下降(BGD)

在有些地方是另一套说法;但划分标准是相同的,只是名字不同:

用多少样本量来更新参数1部分全部
梯度下降类型随机梯度下降(SGD)批量梯度下降(BGD)标准梯度下降(GD)

动量优化方法是在梯度下降法的基础上进行的改变,具有加速梯度下降的作用。一般有标准动量优化方法Momentum、NAG(Nesterov accelerated gradient)动量优化方法。

 

?

  • 使用动量(Momentum)的随机梯度下降法(SGD),主要思想是引入一个积攒历史梯度信息动量来加速SGD。
  • 动量主要解决SGD的两个问题:一是随机梯度的方法(引入的噪声);二是Hessian矩阵病态问题(可以理解为SGD在收敛过程中和正确梯度相比来回摆动比较大的问题)。
  • 理解策略为:由于当前权值的改变会受到上一次权值改变的影响,类似于小球向下滚动的时候带上了惯性。这样可以加快小球向下滚动的速度。
  • 牛顿加速梯度(NAG, Nesterov accelerated gradient)算法,是Momentum动量算法的变种。
  • Nesterov动量梯度的计算在模型参数施加当前速度之后,因此可以理解为往标准动量中添加了一个校正因子。
  • 理解策略:在Momentun中小球会盲目地跟从下坡的梯度,容易发生错误。所以需要一个更聪明的小球,能提前知道它要去哪里,还要知道走到坡底的时候速度慢下来而不是又冲上另一个坡。计算Wt?αvt?1Wt?αvt?1可以表示小球下一个位置大概在哪里。从而可以提前知道下一个位置的梯度,然后使用到当前位置来更新参数。
  • 在凸批量梯度的情况下,Nesterov动量将额外误差收敛率从O(1/k)(k步后)改进到O(1/k^2)。然而,在随机梯度情况下,Nesterov动量对收敛率的作用却不是很大。

自适应学习率优化算法针对于机器学习模型的学习率,传统的优化算法要么将学习率设置为常数要么根据训练次数调节学习率。极大忽视了学习率其他变化的可能性。然而,学习率对模型的性能有着显著的影响,因此需要采取一些策略来想办法更新学习率,从而提高训练速度。?
目前的自适应学习率优化算法主要有:AdaGrad算法RMSProp算法Adam算法以及AdaDelta算法

思想:

  • AdaGrad算法,独立地适应所有模型参数的学习率,缩放每个参数反比于其所有梯度历史平均值总和的平方根。具有代价函数最大梯度的参数相应地有个快速下降的学习率,而具有小梯度的参数在学习率上有相对较小的下降。

算法描述:

  • AdaGrad算法优化策略一般可以表示为:

    W_{t+1}=W_t -\frac{\eta_0}{\sqrt{\sum_{t'=1}^t (g_{t',i})+\epsilon}} \odot g_{t,i}

    假定一个多分类问题,i表示第i个分类,t表示第t迭代同时也表示分类i累计出现的次数。\eta_0表示初始的学习率取值一般为0.01,\epsilon是一个取值很小的数(一般为1e-8)为了避免分母为0。W_t表示t时刻即第t迭代模型的参数,g_{t,i}=\Delta J(W_{t, i})表示t时刻,指定分类i,代价函数J(\cdot)关于W的梯度。
  • 从表达式可以看出,对出现比较多的类别数据,Adagrad给予越来越小的学习率,而对于比较少的类别数据,会给予较大的学习率。因此Adagrad适用于数据稀疏或者分布不平衡的数据集。
  • Adagrad 的主要优势在于不需要人为的调节学习率,它可以自动调节;缺点在于,随着迭代次数增多,学习率会越来越小,最终会趋近于0。

思想:

  • RMSProp算法修改了AdaGrad的梯度积累为指数加权的移动平均,使得其在非凸设定下效果更好。

算法描述:

  • RMSProp算法的一般策略可以表示为:

    \left\{ \begin{aligned} & E[g^2]_t = \alpha E[g^2]_{t-1} + (1-\alpha)g_t^2 \\ &W_{t+1} = W_t - \frac{\eta_0}{\sqrt{E[g^2]_t+\epsilon}} \odot g_t\end{aligned} \right.

    其中,W_t表示t时刻即第t迭代模型的参数,g_t=\Delta J(W_t)表示t次迭代代价函数关于W的梯度大小,E[g^2]_t表示前t次的梯度平方的均值。\alpha表示动力(通常设置为0.9),\eta_0表示全局初始学习率。\epsilon是一个取值很小的数(一般为1e-8)为了避免分母为0。
  • RMSProp借鉴了Adagrad的思想,观察表达式,分母为\sqrt{E[g^2]_t+\epsilon}。由于取了个加权平均,避免了学习率越来越低的的问题,而且能自适应地调节学习率。
  • RMSProp算法在经验上已经被证明是一种有效且实用的深度神经网络优化算法。目前它是深度学习从业者经常采用的优化方法之一。

思想:AdaGrad算法和RMSProp算法都需要指定全局学习率,AdaDelta算法结合两种算法每次参数的更新步长即:

\Delta W_{AdaGrad, \ t} = - \frac{\eta_0}{\sqrt{\sum_{t'=1}^t (g_{t',i})+\epsilon}} \odot g_t\\ \Delta W_{RMSProp, \ t} =- \frac{\eta_0}{\sqrt{E[g^2]_t+\epsilon}} \odot g_t

?

算法描述:

  • AdaDelta算法策略可以表示为:

    \left\{ \begin{aligned} & E[g^2]_t = \alpha E[g^2]_{t-1} + (1-\alpha)g_t^2 \\ & \Delta W_t = - \frac{\sqrt{\sum_{i=1}^{t-1}\Delta W_i }}{\sqrt{E[g^2]_t+\epsilon}} \\ &W_{t+1} = W_t + \Delta W_t \end{aligned} \right.

    其中W_t为第t次迭代的模型参数,g_t = \Delta J(W_t)为代价函数关于W的梯度。E[g^2]_t表示前t次的梯度平方的均值。\sum_{i=1}^{t-1}\Delta W_i表示前t?1次模型参数每次的更新步长累加求根。
  • 从表达式可以看出,AdaDelta不需要设置一个默认的全局学习率。

评价:

  • 在模型训练的初期和中期,AdaDelta表现很好,加速效果不错,训练速度快。
  • 在模型训练的后期,模型会反复地在局部最小值附近抖动。

思想:

  • 首先,Adam中动量直接并入了梯度一阶矩(指数加权)的估计。其次,相比于缺少修正因子导致二阶矩估计可能在训练初期具有很高偏置的RMSProp,Adam包括偏置修正,修正从原点初始化的一阶矩(动量项)和(非中心的)二阶矩估计。

算法描述:

  • Adam算法策略可以表示为:

    \left\{ \begin{aligned} & m_t = \beta_1m_{t-1}+(1-\beta_1)g_t \\& v_t = \beta_2v_{t-1}+(1-\beta_2)g_t^2 \\ & \hat{m}_t = \frac{m_t}{1-\beta_1^t}, \ \ \hat{v}_t = \frac{v_t}{1-\beta_2^t} \\ & W_{t+1} = W_t -\frac{\eta}{\sqrt{\hat{v}_t}+\epsilon}\hat{m}_t\end{aligned} \right.

    其中,m_tv_t分别为一阶动量项和二阶动量项。\beta_1, \beta_2为动力值大小通常分别取0.9和0.999;\hat{m}_t , \hat{v}_t分别为各自的修正值。W_t表示t时刻即第tt迭代模型的参数,g_t=\Delta J(W_t)表示t次迭代代价函数关于W的梯度大小;\epsilon是一个取值很小的数(一般为1e-8)为了避免分母为0

评价:Adam通常被认为对超参数的选择相当鲁棒,尽管学习率有时需要从建议的默认修改。

终于结束的漫长的理论分析,下面对各种优化器做一些有趣的比较。

(1) 示例一

?

这里写图片描述

?

上图描述了在一个曲面上,6种优化器的表现,从中可以大致看出:

① 下降速度

  • 三个自适应学习优化器Adagrad、RMSProp与AdaDelta的下降速度明显比SGD要快,其中,Adagrad和RMSProp齐头并进,要比AdaDelta要快。
  • 两个动量优化器Momentum和NAG由于刚开始走了岔路,初期下降的慢;随着慢慢调整,下降速度越来越快,其中NAG到后期甚至超过了领先的Adagrad和RMSProp。

② 下降轨迹:

  • SGD和三个自适应优化器轨迹大致相同。两个动量优化器初期走了“岔路”,后期也调整了过来。

(2) 示例二

?

这里写图片描述

?

上图在一个存在鞍点的曲面,比较6中优化器的性能表现,从图中大致可以看出:

  • 三个自适应学习率优化器没有进入鞍点,其中,AdaDelta下降速度最快,Adagrad和RMSprop则齐头并进。
  • 两个动量优化器Momentum和NAG以及SGD都顺势进入了鞍点。但两个动量优化器在鞍点抖动了一会,就逃离了鞍点并迅速地下降,后来居上超过了Adagrad和RMSProp。
  • 很遗憾,SGD进入了鞍点,却始终停留在了鞍点,没有再继续下降。

(3) 示例三

?

这里写图片描述

?

上图比较了6种优化器收敛到目标点(五角星)的运行过程,从图中可以大致看出:

① 在运行速度方面

  • 两个动量优化器Momentum和NAG的速度最快,其次是三个自适应学习率优化器AdaGrad、AdaDelta以及RMSProp,最慢的则是SGD。

② 在收敛轨迹方面

  • 两个动量优化器虽然运行速度很快,但是初中期走了很长的”岔路”。
  • 三个自适应优化器中,Adagrad初期走了岔路,但后来迅速地调整了过来,但相比其他两个走的路最长;AdaDelta和RMSprop的运行轨迹差不多,但在快接近目标的时候,RMSProp会发生很明显的抖动。
  • SGD相比于其他优化器,走的路径是最短的,路子也比较正。

Tensorflow中封装了一系列的优化器:

 

下面采用选取几种优化器应用于UCI数据集iris.data简单的分类问题。为了简单起见,初始代码可以参考机器学习:过拟合、神经网络Dropout中没使用Dropout之前的代码。修改一行调用优化器的代码:

(1) 使用SGD优化器

  • 优化器的代码为:
 
  • 运行结果
 

(2) 使用AdaGrad优化器

  • 优化器的代码为:
 

?

  • 运行结果
 
  • 点评:从运行结果上可以看出使用AdaGrad优化器相比于SGD似乎没有较大的提升。

(3) 使用Momentum优化器

  • 优化器的代码为:
 

?

  • 运行结果
 
  • 点评:Momentum优化器略优于AdaGrad优化器和SGD,但收敛速度要比后两者快(第1-2个训练周期就可以达到60%的准确率)。

(4) 使用NAG优化器

  • 优化器的代码为:
 

?

  • 运行结果
 

?

  • 点评:NAG和Momentum结果差不多,NAG似乎好那么一点点。

(5) 使用RMSProp优化器

  • 优化器的代码为:
 

?

  • 运行结果(RMSProp运行结果不稳定,下面是出现比较多的相近结果)
 
  • 点评:RMSProp优化器的效果有点不理想,而且不稳定。

(6) 使用Adam优化器

  • 优化器的代码为:
 

?

  • 运行结果
 
  • 点评:Adam优化器的表现可圈可点,比RMSProp优化器要稳定。?
    (2) 使用AdaDelta优化器

  • 优化器的代码为:

 

?

  • 运行结果
 
  • 点评:AdaDelta优化器似乎能在本例中夺魁。

总评

  • 通过对比10个训练周期的准确率结果可以看出,其他的优化器(除了RMSProp,有点意外,可能本例不适合)或多或少都优于SGD。从收敛速度上看,两个动量优化器Momentum和NAG的速度相比于除了AdaDelta之外的优化器要快,1-2个周期就能达到60%的准确率。而本例中表现最好的优化器是AdaDelta,无论是收敛速度还是十周期的准确率都比其他优化器要好的多。
  • 那种优化器最好?该选择哪种优化算法?目前还没能够达达成共识。Schaul et al (2014)展示了许多优化算法在大量学习任务上极具价值的比较。虽然结果表明,具有自适应学习率的优化器表现的很鲁棒,不分伯仲,但是没有哪种算法能够脱颖而出。
  • 目前,最流行并且使用很高的优化器(算法)包括SGD、具有动量的SGD、RMSprop、具有动量的RMSProp、AdaDelta和Adam。在实际应用中,选择哪种优化器应结合具体问题;同时,也优化器的选择也取决于使用者对优化器的熟悉程度(比如参数的调节等等)。

参考资料

为什么说随机最速下降法(SGD)是一个很好的方法??
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)?
Lan Goodfellow: Deep learning. 深度学习【中文版】?
常见优化算法 (caffe和tensorflow对应参数)

平台注册入口