首页 > 其他 > 详细

吴恩达机器学习笔记(六) —— 支持向量机SVM

时间:2018-07-22 10:03:12      阅读:249      评论:0      收藏:0      [点我收藏+]

 

 

主要内容:

一.损失函数

二.决策边界

三.Kernel

四.使用SVM

 

 

一.损失函数

技术分享图片

 

 

 

二.决策边界

对于:

技术分享图片

当C非常大时,括号括起来的部分就接近于0,所以就变成了:

技术分享图片

非常有意思的是,在最小化 1/2*∑θj^2的时候,最小间距也达到最大。原因如下:

技术分享图片

技术分享图片

所以:

技术分享图片

即:如果我们要最小化1/2*∑θj^2,就要使得||θ||尽量小,而当||θ||最小时,又因为技术分享图片,所以p(i)最大,即间距最大。

 

 

三.Kernel

上面介绍的都是线性可分的情况,当线性不可分时,或许我们可以用多项式进行拟合,如下:

技术分享图片

但是多项式的次数太高,计算成本就会很大,有没有更好的办法?那就是SVM带核的方法。

我们将上面的多项式改为:

技术分享图片

然后f的公式为:

技术分享图片

这个f函数就是高斯核函数。

我们在坐标轴上选取三个地标

技术分享图片

其中f1就是坐标轴上某一点到L(1)距离的远近,离得近则f1 = 1,离得远则f1 = 0,f2、f3等以此类推。

对于高斯核函数,σ对整体分布的影响为:σ越大,分布越扁平:

技术分享图片

 

于是新的决策方法就变为:

技术分享图片

那么如何选取地标L呢?那就是数据集的每一点都作为地标,如下:

技术分享图片

综上,带核的SVM可以描述为:

技术分享图片

 

 

 

四.使用SVM

支持向量机较为复杂,一般而言,我们都不会自己去实现算法,而是直接调用。但是我们需要做两点工作,那就是:1.选择C的值(cost function上的那个系数C),2.选择核函数(或者直接使用无核),具体步骤如下:

技术分享图片

 

吴恩达机器学习笔记(六) —— 支持向量机SVM

原文:https://www.cnblogs.com/DOLFAMINGO/p/9349044.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!