1912年4月15日,泰坦尼克号在首次航行期间撞上冰山后沉没,2224名乘客和机组人员中有1502人遇难。沉船导致大量伤亡的原因之一是没有足够的救生艇给乘客和船员。虽然幸存下来有一些运气因素,但有一些人比其他人更有可能生存,比如妇女,儿童和上层阶级。在本文中将对哪些人可能生存作出分析,特别是运用Python和机器学习的相关模型工具来预测哪些乘客幸免于难,最后提交结果。从kaggle泰坦尼克生存预测项目下载相关数据。
什么样的人在泰坦尼克号中更容易存活?
从Kaggle泰坦尼克号项目页面下载数据:https://www.kaggle.com/c/titanic
#导入处理数据包 import numpy as np import pandas as pd #导入数据 #训练数据集 train = pd.read_csv(‘E:\kaggle\\train.csv‘) #测试数据集 test = pd.read_csv(‘E:\kaggle\\test.csv‘) print (‘训练数据集:‘,train.shape,‘测试数据集:‘,test.shape)
rowNum_train=train.shape[0] rowNum_test=test.shape[0] print(‘kaggle训练数据集有多少行数据:‘,rowNum_train, ‘,kaggle测试数据集有多少行数据:‘,rowNum_test,)
#合并数据集,方便同时对两个数据集进行清洗 full = train.append( test , ignore_index = True ) print (‘合并后的数据集:‘,full.shape)
#查看数据 full.head()
#获取数据类型列的描述统计信息 full.describe()
describe只能查看数据类型的描述统计信息,对于其他类型的数据不显示
# 查看每一列的数据类型,和数据总数 full.info()
缺失值处理
在前面,理解数据阶段,我们发现数据总共有1309行。 其中数据类型列:年龄(Age)、船舱号(Cabin)里面有缺失数据。 字符串列:登船港口(Embarked)、船舱号(Cabin)里面有缺失数据。这为我们下一步数据清洗指明了方向,只有知道哪些数据缺失数据,我们才能有针对性的处理。很多机器学习算法为了训练模型,要求所传入的特征中不能有空值。
print(‘处理前:‘) full.info() #年龄(Age) full[‘Age‘]=full[‘Age‘].fillna( full[‘Age‘].mean() ) #船票价格(Fare) full[‘Fare‘] = full[‘Fare‘].fillna( full[‘Fare‘].mean() ) print(‘处理红后:‘) full.info()
#检查数据处理是否正常 full.head()
#登船港口(Embarked):查看里面数据长啥样 full[‘Embarked‘].head()
#分类变量Embarked,看下最常见的类别,用其填充 full[‘Embarked‘].value_counts()
从结果来看,S类别最常见。我们将缺失值填充为最频繁出现的值:
S=英国南安普顿Southampton
full[‘Embarked‘] = full[‘Embarked‘].fillna( ‘S‘ ) #缺失数据比较多,船舱号(Cabin)缺失值填充为U,表示未知(Uknow) full[‘Cabin‘] = full[‘Cabin‘].fillna( ‘U‘ ) #检查数据处理是否正常 full.head()
#查看最终缺失值处理情况,记住生成情况(Survived)这里一列是我们的标签,用来做机器学习预测的,不需要处理这一列 full.info()
#查看性别数据这一列 full[‘Sex‘].head()
将性别的值映射为数值
男(male)对应数值1,女(female)对应数值0
sex_mapDict={‘male‘:1, ‘female‘:0} #map函数:对Series每个数据应用自定义的函数计算 full[‘Sex‘]=full[‘Sex‘].map(sex_mapDict) full.head()
使用get_dummies进行one-hot编码,产生虚拟变量(dummy variables),列名前缀是Embarked
#存放提取后的特征 embarkedDf = pd.DataFrame() embarkedDf = pd.get_dummies( full[‘Embarked‘] , prefix=‘Embarked‘ ) embarkedDf.head()
因为已经使用登船港口(Embarked)进行了one-hot编码产生了它的虚拟变量(dummy variables)
所以这里把登船港口(Embarked)删掉
#添加one-hot编码产生的虚拟变量(dummy variables)到泰坦尼克号数据集full full = pd.concat([full,embarkedDf],axis=1) full.drop(‘Embarked‘,axis=1,inplace=True) full.head()
客舱等级(Pclass):
1=1等舱,2=2等舱,3=3等舱
#存放提取后的特征 pclassDf = pd.DataFrame() #使用get_dummies进行one-hot编码,列名前缀是Pclass pclassDf = pd.get_dummies( full[‘Pclass‘] , prefix=‘Pclass‘ ) pclassDf.head()
#添加one-hot编码产生的虚拟变量(dummy variables)到泰坦尼克号数据集full full = pd.concat([full,pclassDf],axis=1) #删掉客舱等级(Pclass)这一列 full.drop(‘Pclass‘,axis=1,inplace=True) full.head()
def getTitle(name): str1=name.split( ‘,‘ )[1] #Mr. Owen Harris str2=str1.split( ‘.‘ )[0]#Mr #strip() 方法用于移除字符串头尾指定的字符(默认为空格) str3=str2.strip() return str3 #存放提取后的特征 titleDf = pd.DataFrame() #map函数:对Series每个数据应用自定义的函数计算 titleDf[‘Title‘] = full[‘Name‘].map(getTitle) titleDf.head()
定义以下几种头衔类别:
Officer政府官员
Royalty王室(皇室)
Mr已婚男士
Mrs已婚妇女
Miss年轻未婚女子
Master有技能的人/教师
#姓名中头衔字符串与定义头衔类别的映射关系 title_mapDict = { "Capt": "Officer", "Col": "Officer", "Major": "Officer", "Jonkheer": "Royalty", "Don": "Royalty", "Sir" : "Royalty", "Dr": "Officer", "Rev": "Officer", "the Countess":"Royalty", "Dona": "Royalty", "Mme": "Mrs", "Mlle": "Miss", "Ms": "Mrs", "Mr" : "Mr", "Mrs" : "Mrs", "Miss" : "Miss", "Master" : "Master", "Lady" : "Royalty" } #map函数:对Series每个数据应用自定义的函数计算 titleDf[‘Title‘] = titleDf[‘Title‘].map(title_mapDict) #使用get_dummies进行one-hot编码 titleDf = pd.get_dummies(titleDf[‘Title‘]) titleDf.head()
#添加one-hot编码产生的虚拟变量(dummy variables)到泰坦尼克号数据集full full = pd.concat([full,titleDf],axis=1) #删掉姓名这一列 full.drop(‘Name‘,axis=1,inplace=True) full.head()
python 使用 lambda 来创建匿名函数。
所谓匿名,意即不再使用 def 语句这样标准的形式定义一个函数,预防如下:
lambda 参数1,参数2:函数体或者表达式
客场号的类别值是首字母,例如:
C85 类别映射为首字母C
#存放客舱号信息 cabinDf = pd.DataFrame() full[ ‘Cabin‘ ] = full[ ‘Cabin‘ ].map( lambda c : c[0] ) ##使用get_dummies进行one-hot编码,列名前缀是Cabin cabinDf = pd.get_dummies( full[‘Cabin‘] , prefix = ‘Cabin‘ ) cabinDf.head()
#添加one-hot编码产生的虚拟变量(dummy variables)到泰坦尼克号数据集full full = pd.concat([full,cabinDf],axis=1) #删掉客舱号这一列 full.drop(‘Cabin‘,axis=1,inplace=True) full.head()
#存放家庭信息 familyDf = pd.DataFrame() familyDf[ ‘FamilySize‘ ] = full[ ‘Parch‘ ] + full[ ‘SibSp‘ ] + 1 #if 条件为真的时候返回if前面内容,否则返回0 familyDf[ ‘Family_Single‘ ] = familyDf[ ‘FamilySize‘ ].map( lambda s : 1 if s == 1 else 0 ) familyDf[ ‘Family_Small‘ ] = familyDf[ ‘FamilySize‘ ].map( lambda s : 1 if 2 <= s <= 4 else 0 ) familyDf[ ‘Family_Large‘ ] = familyDf[ ‘FamilySize‘ ].map( lambda s : 1 if 5 <= s else 0 ) familyDf.head()
#添加one-hot编码产生的虚拟变量(dummy variables)到泰坦尼克号数据集full full = pd.concat([full,familyDf],axis=1) full.head()
到现在我们已经有了33个特征了
相关系数法:计算各个特征的相关系数
#相关性矩阵 corrDf = full.corr() corrDf ‘‘‘ 查看各个特征与生成情况(Survived)的相关系数, ascending=False表示按降序排列 ‘‘‘ corrDf[‘Survived‘].sort_values(ascending =False)
根据各个特征与生成情况(Survived)的相关系数大小,我们选择了这几个特征作为模型的输入:
头衔(前面所在的数据集titleDf)、客舱等级(pclassDf)、家庭大小(familyDf)、船票价格(Fare)、船舱号(cabinDf)、登船港口(embarkedDf)、性别(Sex)
#特征选择 full_X = pd.concat( [titleDf,#头衔 pclassDf,#客舱等级 familyDf,#家庭大小 full[‘Fare‘],#船票价格 cabinDf,#船舱号 embarkedDf,#登船港口 full[‘Sex‘]#性别 ] , axis=1 ) full_X.head()
用训练数据和某个机器学习算法得到机器学习模型,用测试数据评估模型
#原始数据集:特征 source_X = full_X.loc[0:sourceRow-1,:] #原始数据集:标签 source_y = full.loc[0:sourceRow-1,‘Survived‘] #预测数据集:特征 pred_X = full_X.loc[sourceRow:,:] ‘‘‘ 确保这里原始数据集取的是前891行的数据,不然后面模型会有错误 ‘‘‘ #原始数据集有多少行 print(‘原始数据集有多少行:‘,source_X.shape[0]) #预测数据集大小 print(‘原始数据集有多少行:‘,pred_X.shape[0])
from sklearn.cross_validation import train_test_split #建立模型用的训练数据集和测试数据集 train_X, test_X, train_y, test_y = train_test_split(source_X , source_y, train_size=.8) #输出数据集大小 print (‘原始数据集特征:‘,source_X.shape, ‘训练数据集特征:‘,train_X.shape , ‘测试数据集特征:‘,test_X.shape) print (‘原始数据集标签:‘,source_y.shape, ‘训练数据集标签:‘,train_y.shape , ‘测试数据集标签:‘,test_y.shape)
#第1步:导入算法 from sklearn.linear_model import LogisticRegression #第2步:创建模型:逻辑回归(logisic regression) model = LogisticRegression() #随机森林Random Forests Model #from sklearn.ensemble import RandomForestClassifier #model = RandomForestClassifier(n_estimators=100) #支持向量机Support Vector Machines #from sklearn.svm import SVC, LinearSVC #model = SVC() #Gradient Boosting Classifier #from sklearn.ensemble import GradientBoostingClassifier #model = GradientBoostingClassifier() #K-nearest neighbors #from sklearn.neighbors import KNeighborsClassifier #model = KNeighborsClassifier(n_neighbors = 3) # Gaussian Naive Bayes #from sklearn.naive_bayes import GaussianNB #model = GaussianNB()
#第3步:训练模型 model.fit( train_X , train_y )
# 分类问题,score得到的是模型的正确率 model.score(test_X , test_y )
使用预测数据集到底预测结果,并保存到csv文件中,上传到Kaggle中,就可以看到排名。
#使用机器学习模型,对预测数据集中的生存情况进行预测 pred_Y = model.predict(pred_X) ‘‘‘ 生成的预测值是浮点数(0.0,1,0) 但是Kaggle要求提交的结果是整型(0,1) 所以要对数据类型进行转换 ‘‘‘ pred_Y=pred_Y.astype(int) #乘客id passenger_id = full.loc[sourceRow:,‘PassengerId‘] #数据框:乘客id,预测生存情况的值 predDf = pd.DataFrame( { ‘PassengerId‘: passenger_id , ‘Survived‘: pred_Y } ) predDf.shape predDf.head() #保存结果 predDf.to_csv( ‘titanic_pred.csv‘ , index = False )
原文:https://www.cnblogs.com/python-1807/p/10645170.html