首页 > 其他 > 详细

CV第七课 优化方法/正则化/迁移学习

时间:2020-05-24 12:53:07      阅读:82      评论:0      收藏:0      [点我收藏+]

SGD的问题:

  1. Loss 在某一个方向上下降很快,在另一个方向上较慢

  技术分享图片

 

 

  2.  遇到局部最优,或者鞍点:斜率为0或者非常小,这样loss下降的会非常慢 

  技术分享图片

   3.  随机梯度下降来自于 随机的一个mini-batch,其最优梯度不一定代表全样本最优

  技术分享图片

 

 

 

 

 

 

 

 

 

优化方法: SGD+Momentum 

  加入一个动量项: 在第n+1次更新梯度时,保留0.9倍第n次的梯度,从而更新参数,降低loss

技术分享图片

技术分享图片

 

 

 

 

 

 

   

 

CV第七课 优化方法/正则化/迁移学习

原文:https://www.cnblogs.com/ChevisZhang/p/12950443.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!