首页 > 其他 > 详细

XGboost

时间:2020-09-22 15:06:36      阅读:63      评论:0      收藏:0      [点我收藏+]

先来举个例子,我们要预测一家人对电子游戏的喜好程度,逐一给各人在电子游戏喜好程度上打分,如下图所示。

训练出了2棵树tree1和tree2,类似之前gbdt的原理,两棵树的结论累加起来便是最终的结论

所以小孩的预测分数就是两棵树中小孩所落到的结点的分数相加:2 + 0.9 = 2.9。爷爷的预测分数同理:-1 + (-0.9)= -1.9。

技术分享图片

技术分享图片

 

 新生成的树是要你和上次预测的残差的,即当生成t棵树后,预测可以分可以写成:

技术分享图片

 

 技术分享图片

 

 

1.2 正则项:树的复杂度

XGBoost对树的复杂度包含了两个部分:

树里面叶子节点的个数T

树上叶子节点的得分w的L2模平方(对w进行L2正则化,相当于针对每个叶结点的得分增加L2平滑,目的是为了避免过拟合)

技术分享图片

 

XGboost

原文:https://www.cnblogs.com/hapyygril/p/13711768.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!