首页 > 其他 > 详细

吴恩达《机器学习》课程总结(2)_单变量线性回归

时间:2019-07-24 13:40:37      阅读:75      评论:0      收藏:0      [点我收藏+]

Q1模型表示

技术分享图片

技术分享图片

Q2:代价函数

对于回归问题常用的代价函数是平方误差代价函数:

技术分享图片

我们的目标选取合适的参数Θ使得误差函数最小,即直线最逼近真实情况。

Q3:代价函数的直观理解(一个参数)

技术分享图片

Q4:代价函数的直观理解(两个参数)

 

技术分享图片

Q5梯度下降

 技术分享图片

Q6梯度下降的直观理解

(1)梯度下降法可以最小化任何代价函数,而不仅仅局限于线性回归中的代价函数。

(2)当越来越靠近局部最小值时,梯度值会变小,所以即使学习率不变,参数变化的幅度也会随之减小。

技术分享图片

 

(3)学习率过小时参数变化慢,到达最优点的时间长,学习率大时,可能导致代价函数无法收敛,甚至发散。

(4)梯度就是某一点的斜率。

Q7梯度下降的线性回归 

技术分享图片

技术分享图片

 英语词汇

Linear regression with one variable	---单变量线性回归
model representation	---模型表示
training set    ---训练集
hypothesis	---假设
gradient descent   ---梯度下降
convergence    ---收敛
local minimum	---局部最小值
global minimum	---全局最大值

单变量线性回归课程总结(点我)

 

吴恩达《机器学习》课程总结(2)_单变量线性回归

原文:https://www.cnblogs.com/henuliulei/p/11237314.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!