首页 > 其他 > 详细

梯度检验与高级优化

时间:2014-01-16 20:36:02      阅读:346      评论:0      收藏:0      [点我收藏+]

众所周知,反向传播算法很难调试得到正确结果,尤其是当程序存在很多难于发现的bug时。距离来说,索引的缺位错误(off-by-one error)会导致只有部分层的权重得到训练,再比如忘记计算偏置项。这些错误会使你得到一个看似十分合理的结果(但实际上比正确代码的结果要差)。因此,但从计算结果上来看,我们很难发现代码中有什么东西遗漏了。本节中,我们将介绍一种对求导结果进行数值检验的方法,该方法可以验证求导代码是否正确。另外,使用本节所述求导检验方法,可以帮助你提升写正确代码的信心。

缺位错误(Off-by-one error)举例说明:比如 bubuko.com,布布扣循环中循环 bubuko.com,布布扣次,正确应该是 bubuko.com,布布扣,但有时程序员疏忽,会写成 bubuko.com,布布扣,这就是缺位错误

假设我们想要最小化以bubuko.com,布布扣 为自变量的目标函数bubuko.com,布布扣

假设 bubuko.com,布布扣,则 bubuko.com,布布扣。在一维的情况下,一次迭代的梯度下降公式是

bubuko.com,布布扣

再假设我们已经使用代码实现了计算bubuko.com,布布扣的函数bubuko.com,布布扣,接着我们使用bubuko.com,布布扣 来实现梯度下降算法。那么我们如何检验 bubuko.com,布布扣 的实现是否正确呢?

回忆导数的数学定义:

bubuko.com,布布扣

那么对于任意 bubuko.com,布布扣 值,我们都可以对等式左边的导数用:

bubuko.com,布布扣

来近似。

实际应用中,我们常将 bubuko.com,布布扣 设为一个很小的常量,比如在bubuko.com,布布扣 数量级(虽然 bubuko.com,布布扣 的取值范围可以很大,但是我们不会将它设得太小,比如 bubuko.com,布布扣,因为那将导致数值舍入误差。)

给定一个被认为能计算 bubuko.com,布布扣 的函数bubuko.com,布布扣,我们可以用下面的数值检验公式

bubuko.com,布布扣

计算两端是否一样检验函数是否正确

 上式两端值的接近程度取决于 bubuko.com,布布扣 的具体形式。但是在假定bubuko.com,布布扣 的情况下,你通常会发现上式左右两端至少有4位有效数字是一样的(通常会更多)。

 现在,考虑考虑 bubuko.com,布布扣 是一个向量而非一个实数(那么就有bubuko.com,布布扣个参数要学习得到),并且 bubuko.com,布布扣。在神经网络的例子里我们使用bubuko.com,布布扣,可以想象为把参数W,b组合扩展成一个长向量θ,现在我们将求导检验方法推广到一般化,即θ是一个向量的情况。

设我们有一个用于计算 bubuko.com,布布扣的函数 bubuko.com,布布扣;我们想要检验 bubuko.com,布布扣 是否输出正确的求导结果。我们定义 bubuko.com,布布扣,其中

bubuko.com,布布扣

是第 bubuko.com,布布扣 个基向量(维度和 bubuko.com,布布扣 相同,在第 bubuko.com,布布扣 行是“bubuko.com,布布扣”而其他行是“bubuko.com,布布扣”)。所以,bubuko.com,布布扣bubuko.com,布布扣 几乎相同,除了第 bubuko.com,布布扣 行元素增加了 bubuko.com,布布扣。类似地,bubuko.com,布布扣 得到的第 bubuko.com,布布扣 行减小了 bubuko.com,布布扣。然后我们可以对每个 bubuko.com,布布扣 检查下式是否成立,进而验证 bubuko.com,布布扣 的正确性:

 bubuko.com,布布扣

 当用反射传播算法求解神经网络时,正确算法实现会得到:

 bubuko.com,布布扣

 以上结果与反向传播算法中的最后一段伪代码一致,都是计算梯度下降。为了验证梯度下降代码的正确性,使用上述数值检验方法计算 bubuko.com,布布扣 的导数,然后验证 bubuko.com,布布扣bubuko.com,布布扣 是否能够给出正确的求导结果。

 迄今为止,我们的讨论都集中在使用梯度下降法来最小化bubuko.com,布布扣。如果你已经实现了一个计算 bubuko.com,布布扣bubuko.com,布布扣 的函数,那么其实还有更精妙的算法来最小化bubuko.com,布布扣

举例来说,可以想象这样一个算法:它使用梯度下降,并能够自动调整学习速率bubuko.com,布布扣,以得到合适的步长值,最终使bubuko.com,布布扣能够快速收敛到一个局部最优解。

还有更妙的算法:比如可以寻找一个Hessian矩阵的近似,得到最佳步长值,使用该步长值能够更快地收敛到局部最优(和牛顿法类似)。

使用这些高级优化算法时,你需要提供关键的函数:即对于任一个bubuko.com,布布扣,需要你计算出bubuko.com,布布扣bubuko.com,布布扣。之后,这些优化算法会自动调整学习速率/步长值bubuko.com,布布扣 的大小(并计算Hessian近似矩阵等等)来自动寻找bubuko.com,布布扣 最小化时bubuko.com,布布扣 的值。诸如L-BFGS和共轭梯度算法通常比梯度下降法快很多。

 

中英文对照:

off-by-one error 缺位错误

bias term 偏置项

numerically checking 数值检验

numerical roungoff errors 数值舍入误差

significant digits 有效数字

unrolling 组合扩展

learning rate 学习速率

Hessian matrix Hessian矩阵

Newton‘s method 牛顿法

conjugate gradient 共轭梯度

step-size步长

 

 

转自:

 http://deeplearning.stanford.edu/wiki/index.php/%E6%A2%AF%E5%BA%A6%E6%A3%80%E9%AA%8C%E4%B8%8E%E9%AB%98%E7%BA%A7%E4%BC%98%E5%8C%96

梯度检验与高级优化

原文:http://www.cnblogs.com/rong86/p/3518513.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!