首页 > 其他 > 详细

分类 之_决策树

时间:2016-06-26 22:29:41      阅读:275      评论:0      收藏:0      [点我收藏+]

思路梳理:

  决策树

        |————Bagging[bootstrap抽样、投票分类]

        |————Boosting[bootstrap抽样、分错元组权重上升、分类器上也加权重进而判断]

        |————RandomForest[bootstrap抽样、n个特征找少量的建树分类、Cart算法(基尼系数、不剪枝),有利于并行化]

             #个人觉得RF胡来,就是x预测x,结果还是x

             #建树方面:ID3(信息增益)  C4.5(信息增益率)   CART(基尼系数,后剪枝)   P221_韩家炜

                   |———以上,无非基于信息论折腾简单的数学公式,剪不剪枝or先剪后剪,

                   |———没必要依据死理,具体问题具体分析 [ps: 之所以RF效果好,是基于信息熵建树有问题,这也未可知啊...]

                   |———(但软件中封装好了,用的时候还是了解下,较好 ;不行自己改)

 

 

  回归树

        |————决策变量输出为连续变量

             [其不需要经典回归中的独立性、正态性、线性、光滑性;但保证准确需要大量的数据]

  #待研究  GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree)

分类 之_决策树

原文:http://www.cnblogs.com/JoyHan/p/5618682.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!