首页 > 其他 > 详细

机器学习---线性回归(二)

时间:2019-03-22 15:46:08      阅读:162      评论:0      收藏:0      [点我收藏+]

第一个学习算法:线性回归

 

技术分享图片

m=训练样本的数量

x=输入变量/特征

y=输出变量/预测的目标变量

(x,y)——一个训练样本

(x1,y1)——样本的第多少行

 

房价数据集——学习算法——输出一个函数h(假设函数:把房子大小作为输入变量x,试着输出房价即输出变量y)

 

有了一些自变量、因变量的数据,拿一个数学函数Model(模型)去拟合(适配)这些数据,以便之后能根据这个模型,在自变量(条件)给出后,预测因变量的值。

技术分享图片

 

代价函数:

 

技术分享图片

 

目标:寻找一个θ1, θ0 使得预测值接近训练集中的样本

方法:预测值与ground truth求差的平方,对于所有样本的该值进行求和,最后除以2m(1/2为简化计算),形成代价函数。最小化该代价函数,得到对应的θ0和θ1

平方误差——解决回归问题的最常用手段

 

公式:

 

技术分享图片

 

公式代表的含义:对所有的训练样本进行求和,将第i号对应的预测结果【也就是hθ(x)】减去第i号房子的实际价格,所得的差的平方相加得到总和,在除以样本数,并求出最小值。

因此,我们最重要找出来的就是找到对应的θ0和θ1

知识回顾:

 

假设函数:

技术分享图片

 

2个参数:

技术分享图片

 

代价函数:

技术分享图片

 

优化目标:

技术分享图片

 

把我们的假设函数简化一下:假设θ_0=0,那么就只剩下θ_1一个参数,我们的优化目标就变成了尽量减少J(θ_1)的值

 

用图像表示就是:

 

技术分享图片

 

当θ_1=0时,y=0,体现在左图上就是深蓝色的线条

当θ_1=1时,y=x,体现在左图上就是浅蓝色的线条

当θ_1=0.5时,y=0.5x,体现在左图上就是粉红色线条

 

将所有的θ_1对应的J(θ_1)值的点在右图上标记出来,并且连成一条线,这条线就是右图中红色的函数曲线,也是J代价函数的直观效果

另外我们还开设了一个机器学习群,加我微信备注【免费】带领大家每天共读吴恩来的机器学习!!!

技术分享图片

机器学习---线性回归(二)

原文:https://www.cnblogs.com/t198520/p/10578660.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!