首页 > 其他 > 详细

RegressionTree(回归树)

时间:2020-02-19 23:37:43      阅读:54      评论:0      收藏:0      [点我收藏+]

1.概述

回归树就是用树模型做回归问题,每一片叶子都输出一个预测值。预测值一般是该片叶子所含训练集元素输出的均值,

即 ????=??????(????|??????????????)cm=ave(yi|xi∈leafm)。

 

2.构建过程

回归树采用平方和损失函数

技术分享图片

 

每次选择一个切分变量j和切分点s使得

技术分享图片

 

 其中

技术分享图片

 

 对于拆分的两个部分继续使用上述方式进行拆分,直至满足停止条件(达到指定深度),

 

cm是一个叶子节点的预测值,这个问题很明显如果不限制深度最终会达到一个叶子节点只有一条数据的过拟合现象。

 

技术分享图片

 

 

 

 

CART 在分类问题和回归问题中的相同和差异:

  • 相同:
    • 在分类问题和回归问题中,CART 都是一棵二叉树,除叶子节点外的所有节点都有且仅有两个子节点;
    • 所有落在同一片叶子中的输入都有同样的输出。
  • 差异:
    • 在分类问题中,CART 使用基尼指数(Gini index)作为选择特征(feature)和划分(split)的依据;在回归问题中,CART 使用 mse(mean square error)或者 mae(mean absolute error)作为选择 feature 和 split 的 criteria。
    • 在分类问题中,CART 的每一片叶子都代表的是一个 class;在回归问题中,CART 的每一片叶子表示的是一个预测值,取值是连续的。

RegressionTree(回归树)

原文:https://www.cnblogs.com/yangyang12138/p/12333850.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!