首页 > 其他 > 详细

支持向量机原理(二)线性支持向量机的软间隔最大化模型

时间:2019-07-05 22:16:21      阅读:109      评论:0      收藏:0      [点我收藏+]

支持向量机原理(一)线性支持向量机

 

1. 线性分类SVM面临的问题

(1)、有时候数据可以用线性分类SVM来求解,但因为混入异常点,导致不能线性可分,

比如下图:有一个蓝色和橙色异常点导致不能按照线性支持向量机方法来分类。

技术分享图片

(2)、数据可分,但影响模型泛化能力。

比如下图:不考虑异常点,SVM的超平面应该是下图中的红线,但由于一个蓝色异常点,导致学习的超平面是下图中的粗虚线。

技术分享图片

 

2. 线性分类SVM的软间隔最大化

SVM对训练集里面的每个样本 (xi,yi) 引入一个松弛变量 ξi ≥ 0,使函数间隔加上松弛变量 ≥1,也就是说:

yi ( w•xi + b) ≥ 1-ξi

对比硬间隔最大化,对样本到超平面的距离的要求放松了,之前 ≥1 ,现在加上一个 ≥0 的松弛变量满足 ≥1 即可。当然每一个松弛变量 ξi 对应一个代价 Cξi ,所以软间隔最大化的 SVM 模型为:

技术分享图片

其中,C>0为惩罚系数,可以理解为回归和分类问题的正则化参数。

 

3. 线性分类SVM的软间隔最大化目标函数的优化

和线性可分SVM的优化类似,先将软间隔最大化的约束问题用拉格朗日函数转化为无约束问题:

技术分享图片

其中 技术分享图片,均为拉格朗日系数。

也就是说,现在要优化的目标函数是:

技术分享图片

我们可以先求优化函数对于 ω,b,ξ的极小值,接着再求拉格朗日乘子 α 和 μ 的极大值。

 

支持向量机原理(二)线性支持向量机的软间隔最大化模型

原文:https://www.cnblogs.com/keye/p/11138981.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!