分类是一种常见的机器学习算法,是一种有监督的算法。简单说就是给出学习集数据都是带标签的,通过训练学习集数据获得模型,对未来给出的实际数据,根据模型进行分类。这里采用K最近邻算法(KNN,K-nearest neighbour)
KNN算法非常直观,容易理解,就是寻找K个距离最近的邻居,看这K个近邻中哪个分类标签多,样本就归于哪类。
下面以一个对学生文理、综合分类问题进行实例操作。
数据文件是一个学生成绩及分类表,样式如下
ID yingyu yuwen shuxue ClassifyResult
0 0 80 80 79 3
1 1 99 89 60 1
2 2 60 78 90 2
3 3 90 70 88 3
4 4 66 77 88 2
代码如下:
import pandas as pd from sklearn import neighbors df = pd.read_csv(‘student.csv‘) train_x = df.iloc[0:80,2:4] # 取数据集前80条记录的语文,数学成绩作为训练集输入 train_y = df.iloc[0:80, 4] # 取数据集前80条记录的标签值,即分类值作为训练集的输出 model = neighbors.KNeighborsClassifier() # 创建最近邻模型 model.fit(train_x, train_y) # 指定输入输出,创建模型 test_x = df.iloc[80:100, 2:4]# 取测试集输入 test_y = df.iloc[80:100, 4].values #取测试集输出,并将数据框转换成数组 test_p = model.predict(test_x) print(test_p) print(test_y) rate = model.score(test_x,test_y) # 记算预测结果的正确率 print(‘预测结果的正确率是{0:*^10}‘.format(rate))
运行结果如下:
[3 1 1 3 3 3 1 1 3 2 2 3 1 3 1 3 3 3 3 1]
[2 3 3 3 3 3 1 1 2 2 2 3 1 3 1 3 1 1 3 3]
预测结果的正确率是***0.65***
此次预测的正确率为0.65,并不是很高,主要是输入训练文件质量不高造成的。但这个小程序实现了KNN分类算法的全部功能,还是值得借鉴的
原文:https://www.cnblogs.com/iceberg710815/p/12450177.html