考虑下面即将出现的数据,虽然我们可以使用线性回归来拟合这些数据,但是这些数据更像是一条二次曲线,相应的方程是 $y=ax^{2}+bx+c$ ,这是式子虽然可以理解为二次方程,但是我们呢可以从另外一个角度来理解这个式子:
如果将 $x^{2}$ 理解为一个特征,将 $x$ 理解为另外一个特征,换句话说,本来我们的样本只有一个特征 $x$ ,现在我们把他看成有两个特征的一个数据集。多了一个特征 $x^{2}$ ,那么从这个角度来看, 这个式子依旧是一个线性回归的式子,但是从 $x$ 的角度来看,它就是一个二次的方程。
以上这样的方式,就是所谓的多项式回归相当于我们为样本多添加了一些特征,这些特征是原来样本的多项式项,增加了这些特征之后,我们可以使用线性回归的思路来更好的处理我们的数据。
import numpy as np import matplotlib.pyplot as plt # 生成100个数字 1*100 np.random.seed(100) x = np.random.uniform(-3, 3, size=100) # 100*1 X = x.reshape(-1, 1) # 一元二次方程 y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100) plt.scatter(x, y) plt.show()
# 线性回归线 from sklearn.linear_model import LinearRegression lin_reg = LinearRegression() lin_reg.fit(X, y) y_predict = lin_reg.predict(X) plt.scatter(x, y) plt.plot(x, y_predict, color=‘r‘) plt.show()
很明显,我们用一跟直线来拟合一根有弧度的曲线,效果是不好的
# 原来所有的数据都在X中,现在对X中每一个数据都进行平方, 再将得到的数据集与原数据集进行拼接, 在用新的数据集进行线性回归 from sklearn.linear_model import LinearRegression lin_reg2 = LinearRegression() lin_reg2.fit(X2, y) X2 = np.hstack([X, X**2]) y_predict2 = lin_reg2.predict(X2) plt.scatter(x, y) # 由于x是乱的,所以应该进行排序 plt.plot(np.sort(x), y_predict2[np.argsort(x)], color=‘r‘) plt.show()
从上图可以看出,当我们添加了一个特征(原来特征的平方)之后,再从x的维度来看,就形成了 一条曲线,显然这个曲线对原来数据集的拟合程度是更好的
# 查看x的系数 # 第一个系数是x前面的系数,第二个系数是x平方前面的系数 lin_reg2.coef_ # [0.95406518 0.50130709] # 查看常数 lin_reg2.intercept_ # 1.8432063555039913
即该模型拟合的曲线为 $y=0.95406518x^{2}+ 0.50130709x+1.8432063555039913$
多线性回归在机器学习算法上并没有新的地方,完全是使用线性回归的思路。他的关键在于 为原来的样本,添加新的特征。而我们得到新的特征的方式是原有特征的多项式的组合。 采用这 样的方式,我们就可以解决一些非线性的问题
与此同时需要主要,我们在上一章所讲的PCA是对我们的数据进行降维处理,而我们这一章所讲 的多项式回归显然在做一件相反的事情,他让我们的数据升维,在升维之后使得我们的算法可以更 好的拟合高纬度的数据
import numpy as np import matplotlib.pyplot as plt x = np.random.uniform(-3, 3, size=100) X = x.reshape(-1, 1) # X.shape --> (100, 1) y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100) # sklearn中对数据进行预处理的函数都封装在preprocessing模块下,包括之前学的归一化StandardScal er from sklearn.preprocessing import PolynomialFeatures # 最高次数2次 poly = PolynomialFeatures(degree=2) poly.fit(X) X2 = poly.transform(X) # X2.shape --> (100, 3)
print(X[:5, :]) """ [[-1.55352926] [ 1.53422389] [-2.57530034] [ 1.30115235] [-1.34130485]] """ print(X2[:5, :]) # 第一列是sklearn为我们添加的X^0的特征 # 第二列和原来的特征一样是X^1的特征 # 第三列是添加的X^2的特征 """ [[ 1. -1.55352926 2.41345318] [ 1. 1.53422389 2.35384294] [ 1. -2.57530034 6.63217186] [ 1. 1.30115235 1.69299744] [ 1. -1.34130485 1.7990987 ]] """
from sklearn.linear_model import LinearRegression lin_reg2 = LinearRegression() lin_reg2.fit(X2, y) y_predict2 = lin_reg2.predict(X2) plt.scatter(x, y) plt.plot(np.sort(x), y_predict2[np.argsort(x)], color=‘r‘) plt.show()
print(lin_reg2.coef_) # [0. 0.95218822 0.48750701] print(lin_reg2.intercept_) # 2.0472357913665844
import numpy as np from sklearn.preprocessing import PolynomialFeatures X = np.arange(1, 11).reshape(-1, 2) """ X.shape --> (5, 2) [[ 1 2] [ 3 4] [ 5 6] [ 7 8] [ 9 10]] """ poly = PolynomialFeatures(degree=2) poly.fit(X) X2 = poly.transform(X) """ X2.shape --> (5, 6) [[ 1. 1. 2. 1. 2. 4.] [ 1. 3. 4. 9. 12. 16.] [ 1. 5. 6. 25. 30. 36.] [ 1. 7. 8. 49. 56. 64.] [ 1. 9. 10. 81. 90. 100.]] """
我们可以看到,将5行2列的矩阵进行多项式转换后变成了5行6列
可以想象如果将degree设置为3,那么将产生一下10个元素,即
$1,x_{1},x_{2},
x_{1}^{2},x_{2}^{2},x_{1}x_{2},
x_{1}^{3},x_{2}^{3},x_{1}^{2}x_{2},x_{1}x_{2}^{2},
\cdots$
也就是说PolynomialFeatures会穷举出所有的多项式组合
pipline的英文名字是管道,那么我们如何使用管道呢,先考虑我们多项式回归的过程
pipline 的作用就是把上面的三个步骤合并,使得我们不用一直重复这三步
import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression x = np.random.uniform(-3, 3, size=100) X = x.reshape(-1, 1) y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100) from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler, PolynomialFeatures # 传入每一步的对象名和类的实例化 poly_reg = Pipeline([ ("poly", PolynomialFeatures(degree=2)), ("std_scaler", StandardScaler()), ("lin_reg", LinearRegression()) ]) poly_reg.fit(X, y) y_predict = poly_reg.predict(X) plt.scatter(x, y) plt.plot(np.sort(x), y_predict[np.argsort(x)], color=‘r‘) plt.show()
算法所训练的模型不能完整表述数据关系
算法所训练的模型过多的表达了数据间的噪音关系
import numpy as np import matplotlib.pyplot as plt np.random.seed(666) x = np.random.uniform(-3.0, 3.0, size=100) X = x.reshape(-1, 1) y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, size=100) plt.scatter(x, y, c=‘b‘) plt.show()
from sklearn.linear_model import LinearRegression lin_reg = LinearRegression() lin_reg.fit(X, y) y_predict = lin_reg.predict(X) plt.scatter(x, y) plt.plot(np.sort(x), y_predict[np.argsort(x)], color=‘r‘) plt.show()
使用均方误差来看拟合的结果,这是因为我们同样都是对一组数据进行拟合,所以使用不同的方法对数据进行拟合 得到的均方误差的指标是具有可比性的。
print(lin_reg.score(X, y)) # 0.4953707811865009 from sklearn.metrics import mean_squared_error y_predict = lin_reg.predict(X) print(mean_squared_error(y, y_predict)) # 3.0750025765636577
import numpy as np import matplotlib.pyplot as plt from sklearn.metrics import mean_squared_error from sklearn.linear_model import LinearRegression from sklearn.pipeline import Pipeline from sklearn.preprocessing import PolynomialFeatures from sklearn.preprocessing import StandardScaler np.random.seed(666) x = np.random.uniform(-3.0, 3.0, size=100) X = x.reshape(-1, 1) y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, size=100) def PolynomialRegression(degree): return Pipeline([ ("poly", PolynomialFeatures(degree=degree)), ("std_scaler", StandardScaler()), ("lin_reg", LinearRegression()) ])
poly2_reg = PolynomialRegression(degree=2) # 查看管道 poly2_reg.fit(X, y) y2_predict = poly2_reg.predict(X) plt.scatter(x, y) plt.plot(np.sort(x), y2_predict[np.argsort(x)], color=‘r‘) plt.show() print(mean_squared_error(y, y2_predict)) # 1.0987392142417858 print(poly2_reg.score(X, y)) # 0.819689285599819
poly10_reg = PolynomialRegression(degree=10) # 查看管道 poly10_reg .fit(X, y) y10_predict = poly10_reg .predict(X) plt.scatter(x, y) plt.plot(np.sort(x), y10_predict [np.argsort(x)], color=‘r‘) plt.show() print(mean_squared_error(y, y10_predict )) # 1.0508466763764126 print(poly10_reg.score(X, y)) # 0.8275487827443734
poly100_reg = PolynomialRegression(degree=100) # 查看管道 poly100_reg .fit(X, y) y100_predict = poly100_reg .predict(X) plt.scatter(x, y) plt.plot(np.sort(x), y100_predict [np.argsort(x)], color=‘r‘) plt.show() print(mean_squared_error(y, y100_predict )) # 0.6839223451864704 print(poly100_reg.score(X, y)) # 0.8877636066353388
这条曲线只是原来随机生成的点(分布不均匀)对应的y的预测值连接起来的曲线,不过有x轴很多地方可能没有数据点,所以连接的结果和原来的曲线不一样(不是真实的y曲线)。 下面尝试真正还原原来的曲线(构造均匀分布的原数据集)
poly100_reg = PolynomialRegression(degree=100) poly100_reg .fit(X, y) X_plot = np.linspace(-3, 3, 100).reshape(100, 1) y_plot = poly100_reg.predict(X_plot) plt.scatter(x, y) plt.plot(X_plot[:,0], y_plot, color=‘r‘) plt.axis([-3, 3, 0, 10]) plt.show() print(poly100_reg.score(X, y)) # 0.8877636066353388
对于现在的数据(基于二次方程构造),我们使用低于2项的拟合结果,就是欠拟合;高于2项的拟合结果,就是过拟合
使用上图的过拟合结果,我们可以得知,虽然我们训练出的曲线将原来的样本点拟合的非常好,总体的误差非常的小, 但是一旦来了新的样本点,他就不能很好的预测了,在这种情况下,我们就称我们得到的这条弯弯曲曲的曲线,他的泛化能力(由此及彼的能力)非常弱
解决这个问题的方法也就是使用训练数据集,测试数据集的分离
测试数据对于我们的模型是全新的数据,如果使用训练数据获得的模型面对测试数据也能获 得很好的结果,那么我们就说我们的模型泛化能力是很强的。 如果我们的模型面对测试数据结果很差的话,那么他的泛化能力就很弱。事实上,这是训练数据集更大的意义
from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666)
lin_reg = LinearRegression() lin_reg.fit(X_train, y_train) y_predict = lin_reg.predict(X_test) mean_squared_error(y_test, y_predict) # 2.2199965269396573
poly2_reg = PolynomialRegression(degree=2) poly2_reg.fit(X_train, y_train) y2_predict = poly2_reg.predict(X_test) mean_squared_error(y_test, y2_predict) # 0.80356410562978997
poly10_reg = PolynomialRegression(degree=10) poly10_reg.fit(X_train, y_train) y10_predict = poly10_reg.predict(X_test) mean_squared_error(y_test, y10_predict) # 0.92129307221507939
poly100_reg = PolynomialRegression(degree=100) poly100_reg.fit(X_train, y_train) y100_predict = poly100_reg.predict(X_test) mean_squared_error(y_test, y100_predict) # 14075796419.234262
刚刚我们进行的实验实际上在实验模型的复杂度
算法 |
系数 |
分析 |
KNN |
K值 |
K越小,复杂度越高 |
多项式回归 |
阶数 |
阶数越高,复杂度越高 |
通常对于这样一个图,会有两根曲线:
原文:https://www.cnblogs.com/zry-yt/p/11922729.html