把文本数据转化成特征向量的过程,比较常用的文本特征表示法为词袋法
词集:0、1
不考虑词语出现的顺序怕,每个出现过的词汇单独作为一列特征,这些不重复的特征词汇集合为词表[room desk]10000
每一个文本都可以在很长的词表上统计出一个很多列的特征向量[2, 0, 0, 0, 0, 0, 0, 0]10000
如果每个文本都出现的词汇,一般被标记为停用词不计入特征向量
CountVectorizer
TfidfVectorizer:
TF-IDF 概念
TF-IDF(Term Frequency - Inverse Document Frequency)
词频:TF = 词在文档中出现的次数 / 文档中总词数
逆文档频率:IDF = log[ (语料库中的文档总数 / (包含词条w的文档数 + 1) ],分母加1,是为了避免分母为0
TF-IDF = TF(词频) * IDF(逆文档频率)
TF:词频,文本中各个词的出现频率统计,并作为文本特征,这个很好理解。big:tf = 30 / 240
IDF:逆文本频率,其他文本里面都没有出现big,idf = log(101 / 2)。->∞
其他99篇文本里都出现big,log(100 / 101)。->0
概括来讲,IDF反应了一个词在所有文本中出现的频率,如果一个词在很多的文本中出现,那么它的IDF值应该低。而反过来如果一个词在比较少的文本中出现,那么它的IDF值应该高,比如一些专业的名词如”Machine Learning“,这样的词IDF值应该高。一个极端的情况,如果一个词在所有的文本中都出现,那么它的IDF值应该为0。
TP(True Positive):真实为0,预测也为0
FN(False Negative):真实为0,预测为1
FP(False Positive):真实为1,预测为0
TN(True Negative):真实为1,预测也为1
TP | FN |
FP | TN |
from sklearn.model_selection import train_test_split
x_train,x_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=0, stratify=y_train)
sklearn.feature_extraction.text.CountVectorizer
sklearn.feature_extraction.text.TfidfVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer
tfidf2 = TfidfVectorizer()
观察邮件与向量的关系
向量还原为邮件
from sklearn.naive_bayes import GaussianNB
from sklearn.naive_bayes import MultinomialNB
说明为什么选择这个模型?
from sklearn.metrics import confusion_matrix
confusion_matrix = confusion_matrix(y_test, y_predict)
说明混淆矩阵的含义
from sklearn.metrics import classification_report
说明准确率、精确率、召回率、F值分别代表的意义
如果用CountVectorizer进行文本特征生成,与TfidfVectorizer相比,效果如何?
原文:https://www.cnblogs.com/xiaolan-Lin/p/12930597.html