首页 > 其他 > 详细

机器学习--线性回归 综述

时间:2015-04-27 11:15:47      阅读:314      评论:0      收藏:0      [点我收藏+]

机器学习第0天
欢迎转载,请标明出处(http://blog.csdn.net/tonyshengtan),尊重劳动,尊重知识,欢迎讨论。

开篇废话

又回来写博客了,虽然一直知道学习没有尽头,但还是会怀疑,学到什么程度才能找一份这样的工作(吐槽:尼玛现在的工作太恶心了,每天的任务是歌功颂德,粉饰太平,推卸责任,喜欢做技术的同学千万别来那些所谓待遇好,稳定的天朝所有企业,毁一辈子)。
废话不多说,自己选的,就要做下去。

线性回归(Linear Regression)

首先说下什么是回归,回归又叫回归分析,是统计分析方法中用于确定两种或两种以上的变量相互依赖关系的一种。
通俗点,比如下面一张图,来自斯坦福公开课《machine learning》:

技术分享

上图横坐标代表变量房屋面积,纵坐标代表房子价格,通过图像数据可以大概推测,其之间存在依赖关系,或者通过常识也知道,房子越大价格越高,而线性回归的目的就是找出这样一条“线”(依赖关系表达式)来拟合这些数据。
其次总结下线的含义,线一定是直线,但不一定是二维的直线,可以多维的直线,不可以是其他形状的线(弯的),还需要区别开的是点和面。

技术分享

博客结构

介绍线性回归的内容包括以下几篇(可能会有调整,本文持续更新):

  1. 最小二乘法
  2. 最小均方法
  3. 概率知识回顾
  4. 最大似然法
  5. 局部加权法

    总结

    文章大概结构如此,持续更新,欢迎关注

机器学习--线性回归 综述

原文:http://blog.csdn.net/tonyshengtan/article/details/45306029

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!