Spark机器学习实战 (十一) - 文本情感分类项目实战
0 相关源码
将结合前述知识进行综合实战,以达到所学即所用。文本情感分类这个项目会将分类算法、文本特征提取算法等进行关联,使大家能够对Spark的具体应用有一个整体的感知与了解。
1 项目总体概况
2 数据集概述
3 数据预处理
4 文本特征提取
- 官方文档介绍
提取,转换和选择特征
本节介绍了使用特征的算法,大致分为以下几组: - 提取:从“原始”数据中提取特征
- 转换:缩放,转换或修改特征
- 选择:从中选择一个子集一组更大的特征局部敏感散列(LSH):这类算法将特征变换的各个方面与其他算法相结合。
(TF-IDF) 是在文本挖掘中广泛使用的特征向量化方法,以反映术语对语料库中的文档的重要性。
用t表示一个术语,用d表示文档,用D表示语料库。术语频率TF(t,d)
是术语t出现在文档d中的次数,而文档频率DF(t,D)
是包含术语的文档数T
如果我们仅使用术语频率来衡量重要性,那么过分强调经常出现但很少提供有关文档的信息的术语非常容易,例如: “a”,“the”和“of”。
如果术语在语料库中经常出现,则表示它不包含有关特定文档的特殊信息。
- 反向文档频率是术语提供的信息量的数字度量:
其中| D |
是语料库中的文档总数。由于使用了对数,如果一个术语出现在所有文档中,其IDF值将变为0.
请注意,应用平滑术语以避免语料库外的术语除以零。
TF-IDF
测量仅仅是TF和IDF的乘积
术语频率和文档频率的定义有几种变体。在MLlib中,我们将TF和IDF分开以使它们变得灵活。
TF:HashingTF和CountVectorizer都可用于生成术语频率向量。
HashingTF
是一个转换器,它接受一组术语并将这些集合转换为固定长度特征向量。
在文本处理中,“一组术语”可能是一些单词。HashingTF
利用散列技巧。通过应用散列函数将原始特征映射到索引(术语)。这里使用的哈希函数是MurmurHash 3.然后,基于映射的索引计算术语频率。这种方法避免了计算全局术语到索引映射的需要,这对于大型语料库来说可能是昂贵的,但是它遭受潜在的哈希冲突,其中不同的原始特征可能在散列之后变成相同的术语。为了减少冲突的可能性,我们可以增加目标特征维度,即哈希表的桶的数量。由于散列值的简单模数用于确定向量索引,因此建议使用2的幂作为要素维度,否则要素将不会均匀映射到向量索引。默认要素尺寸为218 = 262,144218 = 262,144。可选的二进制切换参数控制术语频率计数。设置为true时,所有非零频率计数都设置为1.这对于模拟二进制而非整数计数的离散概率模型特别有用。
CountVectorizer将文本文档转换为术语计数向量
IDF:IDF是一个Estimator,它适合数据集并生成IDFModel。 IDFModel采用特征向量(通常从HashingTF或CountVectorizer创建)并缩放每个特征。直观地说,它降低了在语料库中频繁出现的特征。
注意:spark.ml不提供文本分割工具.
在下面的代码段中,我们从一组句子开始。我们使用Tokenizer将每个句子分成单词。对于每个句子(单词包),我们使用HashingTF将句子散列为特征向量。我们使用IDF重新缩放特征向量;这通常会在使用文本作为功能时提高性能。然后我们的特征向量可以传递给学习算法。
import org.apache.spark.ml.feature.{HashingTF, IDF, Tokenizer}
val sentenceData = spark.createDataFrame(Seq(
(0.0, "Hi I heard about Spark"),
(0.0, "I wish Java could use case classes"),
(1.0, "Logistic regression models are neat")
)).toDF("label", "sentence")
val tokenizer = new Tokenizer().setInputCol("sentence").setOutputCol("words")
val wordsData = tokenizer.transform(sentenceData)
val hashingTF = new HashingTF()
.setInputCol("words").setOutputCol("rawFeatures").setNumFeatures(20)
val featurizedData = hashingTF.transform(wordsData)
// alternatively, CountVectorizer can also be used to get term frequency vectors
val idf = new IDF().setInputCol("rawFeatures").setOutputCol("features")
val idfModel = idf.fit(featurizedData)
val rescaledData = idfModel.transform(featurizedData)
rescaledData.select("label", "features").show()
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
5 训练分类模型
-
代码
-
data.show(false)
-
println(neg.count(),data.count())//合并
-
result.show(false)
-
println(s""“accuracy is $accuracy”"")
6 Spark机器学习实践系列
- 基于Spark的机器学习实践 (一) - 初识机器学习
- 基于Spark的机器学习实践 (二) - 初识MLlib
- 基于Spark的机器学习实践 (三) - 实战环境搭建
- 基于Spark的机器学习实践 (四) - 数据可视化
- 基于Spark的机器学习实践 (六) - 基础统计模块
- 基于Spark的机器学习实践 (七) - 回归算法
- 基于Spark的机器学习实践 (八) - 分类算法
- 基于Spark的机器学习实践 (九) - 聚类算法
- 基于Spark的机器学习实践 (十) - 降维算法
- 基于Spark的机器学习实践(十一) - 文本情感分类项目实战
X 联系我
Java交流群
博客
知乎
Github
文章来源: javaedge.blog.csdn.net,作者:JavaEdge.,版权归原作者所有,如需转载,请联系作者。
原文链接:javaedge.blog.csdn.net/article/details/89408354
- 点赞
- 收藏
- 关注作者
评论(0)