首页 > 其他 > 详细

Adaboost学习笔记

时间:2020-02-23 17:03:02      阅读:68      评论:0      收藏:0      [点我收藏+]

Adaboost

自适应增强树

boosting过程

Boosting分类方法,其过程如下所示:

1.先通过对N个训练数据的学习得到第一个弱分类器h1;

2.将h1分错的数据和其他的新数据一起构成一个新的有N个训练数据的样本,通过对这个样本的学习得到第二个弱分类器h2;

3.将h1和h2都分错了的数据加上其他的新数据构成另一个新的有N个训练数据的样本,通过对这个样本的学习得到第三个弱分类器h3;

4.最终经过提升的强分类器h_final=Majority Vote(h1,h2,h3)。即某个数据被分为哪一类要通过h1,h2,h3的多数表决
上述Boosting算法,存在两个问题:

如何调整训练集,使得在训练集上训练弱分类器得以进行
如何将训练得到的各个弱分类器联合起来形成强分类器

针对以上两个问题,AdaBoost算法进行了调整:

1.使用加权后选取的训练数据代替随机选取的训练数据,这样将训练的焦点集中在比较难分的训练数据上
2.将弱分类器联合起来时,使用加权的投票机制代替平均投票机制。让分类效果好的弱分类器具有较大的权重,而分类效果差的分类器具有较小的权重

这个很好理解??

定义

AdaBoost全称为Adaptive Boosting:自适应提升算法;虽然名字听起来给人一种高大上的感觉,但其实背后的原理并不难理解。什么叫做自适应,就是这个算法可以在不同的数据集上都适用,这个基本和废话一样,一个算法肯定要能适应不同的数据集。提升方法是指:分类问题中,通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类器的性能.

Adaboost学习笔记

原文:https://www.cnblogs.com/gaowenxingxing/p/12350464.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!