1.分类学习最基本的想法就是:基于一个训练集D在样本空间中找到一个划分超平面,将不同的类别样本分开。两类训练样本“正中间”超平面所产生的结果是最鲁棒的,对局部扰动容忍最好,对于未见的实例的泛化能力最强。
2.划分超平面可以由:
方程来描述,其中
为法向量,决定了超平面的方向,b为位移项,决定了超平面与原点之间的距离,划分超平面可以由法向量w和b决定,样本空间中任意一点x到超平面(w,b)之间的距离可以写为:

  对于样本集中的(xi,yi),若yi=+1,则有
,若yi=-1,则有
,令:
  
3.如下图所示,距离超平面最近的几个训练样本点使得等号成立,这三个样本点称为“支持向量”,两个异类支持向量到平面的距离之和为:
  
   
这个量也称之为“间隔”
  
3.要找到“最大间隔”的划分超平面,就是要找到能满足上式中的约束参数w和b使得γ最大:
显然为了最大化间隔,只要使得1/||w||最大化,就是使得最小化||w||^2,即:
 
这就是支持向量机SVM的基本型
原文:https://www.cnblogs.com/bigdata-stone/p/10348565.html