首页 > 其他 > 详细

神经网络优化(二) - 正则化

时间:2018-11-03 19:44:47      阅读:93      评论:0      收藏:0      [点我收藏+]

---恢复内容开始---

在机器学习中,有时候我们基于一个数据集训练的模型对该模型的正确率非常高,而该模型对没有见过的数据集很难做出正确的响应;那么这个模型就存在过拟合现象。

为了缓解或避免过拟合现象,我们通常用的方法是采用正则化方法(Regularization)。

1 正则化基本理解

1.1 正则化公式的引入

 正则化在损失函数中引入模型复杂度指标,利用给W加权值,弱化了训练数据的噪声(注:一般不正则化 b,仅正则化 w

 

技术分享图片

1.2 loss(w)函数的两种表述方式

# 表达方式1
loss(w) = tf.contrib.l1_regularizer(regularizer)(w)
# 表达方式2
loss(w) = tf.contrib.l2_regularizer(regularizer)(w)

其对应的数学表达式为

技术分享图片

 将正则化计算好的 w 添加到 losses 中

 

 

技术分享图片

 

 

 

 

 

 

---恢复内容结束---

神经网络优化(二) - 正则化

原文:https://www.cnblogs.com/gengyi/p/9901749.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!