首页 > 其他 > 详细

机器学习基石笔记:12 Nonlinear Transformation

时间:2019-05-01 17:21:22      阅读:78      评论:0      收藏:0      [点我收藏+]

原文地址:https://www.jianshu.com/p/11c00e290c22

一、二次假设

实际上线性假设的模型复杂度是受到限制的,需要高次假设打破这个限制。

技术分享图片

假设数据不是线性可分的,但是可以被一个圆心在原点的圆分开,需要我们重新设计基于该圆的PLA等算法吗?

技术分享图片

不用,只需要通过非线性转换将\(X\)域圆形可分变为\(Z\)域线性可分!

技术分享图片
技术分享图片
技术分享图片

二、非线性转换

技术分享图片
技术分享图片
技术分享图片

三、非线性转换的代价

计算/存储代价:次数越高,代价越大。

技术分享图片

模型复杂度代价:次数越高,代价越大。

技术分享图片

高次假设能使样本内代价更小;低次假设能保证泛化误差更小。

技术分享图片

可视化数据后再选择:
一是数据维度高时难以可视化;
二是可视化后再选择实际上人脑里产生的模型复杂度代价并没有算进去,加上后实际代价不一定很低。

技术分享图片

四、结构化假设集

低次假设集合是包含在高次假设集合中的。

技术分享图片
技术分享图片

先线性模型,效果不好的话,再使用更高次的模型。

技术分享图片

机器学习基石笔记:12 Nonlinear Transformation

原文:https://www.cnblogs.com/cherrychenlee/p/10800124.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!