首页 > 编程语言 > 详细

十大经典预测算法

时间:2021-08-24 16:45:41      阅读:19      评论:0      收藏:0      [点我收藏+]

线性回归

  • 输入与输出符合线性关系
  • 定义损失函数,损失函数是点(输入 ,标签)到直线的距离表示,越小越好
  • 通过梯度下降的方法,求解最优参数
  • 是一个迭代更新的过程
  • 属于监督学习

逻辑回归

  • 输入属于与输入不符合线性关系
  • 标签为0-1
  • 只能通过梯度下降来求最优参数
  • 分类任务,

GBDT (梯度提升决策树)

  • 残差值 = 真实值-预测值
  • 将残差值作为下一轮的真实值
  • 迭代数次后,将所有的预测值相加

adboost

  • AdaBoost是一种Boosting的融合算法,它通过级联的方式,把一系列的弱学习模型融合在一起变成一个强分类器。
  • AdaBoost既可以做分类,也可以做回归
  • AdaBoost做分类模型的时候,默认的基学习类型是决策树。
  • AdaBoost的多个子模型通过加权求和的方式融合,并不是简单的求平均,子模型的权重取决于子模型的误差率大小,误差率越小,权值越大

支持向量机(SVM算法)

  • 通过核涵式,实现了将一位空间的运算映射到高维空间
  • 类似线性回归,求一条拟合的直线
  • 与线性回归的不同点:损失函数的值是越大越好,也就是点和直线之间的距离越大越好

随即森林

集成学习(模型融合算法)

十大经典预测算法

原文:https://www.cnblogs.com/simbanana/p/15180026.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!