发布时间:2024-08-24 08:01
常用数据集数据的结构组成
注:有些数据集可以没有目标值
数据中对于特征的处理
Scikit-learn库介绍
安装
mkvirtualenv -p /usr/bin/python3.6 ml3
pip3 install Scikit-learn
注:安装scikit-learn需要Numpy, pandas等库
Scikit-learn包括:
Classification:分类
Regression:回归
Clustering:聚类
Dimensionality reduction:降维
Model selection: 模型选择
Preprocessing:特征工程
特征抽取对文本等数据进行特征值化
注:特征值化是为了计算机更好的去理解数据
sklearn 特征抽取 API
作用:对字典数据进行特征值化
类:sklearn.feature_extraction.DictVectorizer
函数 | 参数 | 返回值 |
---|---|---|
DictVectorizer.fit_transform(X) | 字典或者包含字典的迭代器 | 返回 sparse 矩阵 |
DictVectorizer.inverse_transform(X) | array数组或者sparse矩阵 | 转换之前数据格式 |
DictVectorizer.get_feature_names() | 返回类别名称 | |
DictVectorizer.transform(X) | 从特性名称到特性值的字典或映射 | 按照原先的标准转换 |
默认参数为sparse=True
sparse=True 时
sparse=False 时
from sklearn.feature_extraction import DictVectorizer
def dictvec():
\"\"\"
字典数据抽取
:return: None
\"\"\"
# 实例化
dict = DictVectorizer(sparse=False) # 调用 sparse=False 显示 ndarray 二维数组
# 调用 fit_transform
data = dict.fit_transform([{\'class\': \'一班\', \'number\': 40}, {\'class\': \'二班\', \'number\': 50}, {\'class\': \'三班\', \'number\': 24}])
print(dict.get_feature_names())
print(data)
return None
if __name__ == \'__main__\':
dictvec()
代码执行结果:
字典数据抽取:
把字典汇总一些类别数据,分别进行转换成特征数组形式,有类别的这些特征先要转换字典数据
One-hot 编码
[[ 1. 0. 0. 40.]
[ 0. 0. 1. 50.]
[ 0. 1. 0. 24.]]
为每个类别生成一个布尔列。这写列汇总只有一列可以为每个样本取值1。因此,术语一个热编码。
作用:对文本数据进行特征值化
类:sklearn.feature_extraction.text.CountVectorizer
函数 | 参数 | 返回值 |
---|---|---|
CountVectorizer.fit_transform(X) | 文本或者包含文本字符串的可迭代对象 | 返回 sparse 矩阵 |
CountVectorizer.inverse_transform(X) | array数组或者sparse矩阵 | 转换之前数据格式 |
CountVectorizer.get_feature_names() | 单词列表 |
from sklearn.feature_extraction.text import CountVectorizer
def countvec():
\"\"\"
对文本进行特征值化
:return: None
\"\"\"
# 实例化CountVectorizer
cv = CountVectorizer()
# 调用fit_transform输入数据并转换
data = cv.fit_transform([\"Time goes by so fast, people go in and out of your life\", \"You must never miss the opportunity to tell these people how much they mean to you\"])
# 打印结果
print(cv.get_feature_names())
# 1.注意返回格式,利用toarray()进行 sparse 矩阵转换 array 数组
print(data.toarray())
return None
if __name__ == \'__main__\':
countvec()
代码执行结果:
需要用到的第三方库
jieba 分词
安装: pip3 install jieba
返回值:词语生成器
注:CountVectorizer.fit_transform()函数不支持单个中文字,需要对中文进行分词才能详细的进行特征值化
from sklearn.feature_extraction.text import CountVectorizer
import jieba
def cutword():
sentence1 = jieba.cut(\"用我们的奋斗和梦想扬起青春的船帆,当我们努力拼搏地摇浆时,成功的闸门也会慢慢地再为我们打开,我们将享受一份青春的美好,收获一份成功的喜悦。\")
sentence2 = jieba.cut(\"曾经自己输掉的东西,只要不是你想,就一定程度可以进行再一点一点赢回来。\")
sentence3 = jieba.cut(\"如果有一个奇迹,世界上真有,它是努力的另一个名称。\")
# 转换成列表
conten1 = list(sentence1)
conten2 = list(sentence2)
conten3 = list(sentence3)
# 把列表转换成字符串
c1 = \' \'.join(conten1)
c2 = \' \'.join(conten2)
c3 = \' \'.join(conten3)
return c1, c2, c3
def hanzivec():
\"\"\"中文特征值化
对三段话进行特征值化——流程
1. 准备句子,利用jieba.cut进行分词
2. 实例化CountVectorizer
3. 将分词结果变成字符串当作 fit_transform 的输入值
:return: None
\"\"\"
c1, c2, c3 = cutword()
print(c1, c2, c3)
cv = CountVectorizer()
data = cv.fit_transform([c1, c2, c3])
print(cv.get_feature_names())
print(data.toarray())
return None
if __name__ == \'__main__\':
hanzivec()
TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。
TF-IDF作用:用以评估一字词对一个文件集或一个语料库中的其中一份文件的重要程度。
注:log(数值):输入的数值越小,结果越小
tf * idf = 重要性程度
类:sklearn.feature_extraction.text.TfidfVectorizer
函数 | 参数 | 返回值 |
---|---|---|
TfidfVectorizer.fit_transform(X) | 文本或者包含文本字符串的可迭代对象 | 返回sparse矩阵 |
TfidfVectorizer.inverse_transform(X) | array数组或者 sparse 矩阵 | 每个文档的返回关系(含非零条目) |
TfidfVectorizer.get_feature_names() | 单词列表 |
from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizer
import jieba
def cutword():
sentence1 = jieba.cut(\"用我们的奋斗和梦想扬起青春的船帆,当我们努力拼搏地摇浆时,成功的闸门也会慢慢地再为我们打开,我们将享受一份青春的美好,收获一份成功的喜悦。\")
sentence2 = jieba.cut(\"曾经自己输掉的东西,只要不是你想,就一定程度可以进行再一点一点赢回来。\")
sentence3 = jieba.cut(\"如果有一个奇迹,世界上真有,它是努力的另一个名称。\")
# 转换成列表
conten1 = list(sentence1)
conten2 = list(sentence2)
conten3 = list(sentence3)
# 把列表转换成字符串
c1 = \' \'.join(conten1)
c2 = \' \'.join(conten2)
c3 = \' \'.join(conten3)
return c1, c2, c3
def tfidfvec():
\"\"\"
中文特征值化
:return: None
\"\"\"
c1, c2, c3 = cutword()
print(c1, c2, c3)
tf = TfidfVectorizer()
data = tf.fit_transform([c1, c2, c3])
print(tf.get_feature_names())
print(data.toarray())
return None
if __name__ == \'__main__\':
tfidfvec()