R语言实战应用精讲50篇(十八)-R语言实现分词、词频与词云案例解析

举报
格图洛书 发表于 2021/11/18 23:14:36 2021/11/18
【摘要】 前言 我真的超爱R语言,原因之一就是R有许多已经写好、“开箱即用”的程序包可以直接拿来用;要知道,程序包减少了多少工作量。当然,其他语言也有类似的包,但是貌似没那么多、没那么细。这一期咱就要用jiebaR包、sqldf包和wordcloud2包完成中文文本的分词、词频统计与绘制词云图的工作。首先设置工作目录:可以通过R-Gui的“文件...

前言

我真的超爱R语言,原因之一就是R有许多已经写好、“开箱即用”的程序包可以直接拿来用;要知道,程序包减少了多少工作量。当然,其他语言也有类似的包,但是貌似没那么多、没那么细。这一期咱就要用jiebaR包、sqldf包和wordcloud2包完成中文文本的分词、词频统计与绘制词云图的工作。首先设置工作目录:可以通过R-Gui的“文件-改变工作目录”菜单完成,也可以通过以下代码;设置工作目录的意义是,你的所有数据和结果都在该目录下面,找文件时候就不会慌乱:

# 设置工作目录

setwd("D://text_analysis")

中文分词:jiebaR包

    注意1:jiebaR包依赖于jiebaRD包,所以先要安装jiebaRD包;中文分词包还有Rwordseg包、tmcn包等,这里不做介绍,读者可以自行探索:

# 安装jiebaRD包并调用

install.packages("jiebaRD")

library(jiebaRD)

# 安装jiebaR包并调用

install.packages("jiebaR")

library(jiebaR)

文章来源: wenyusuran.blog.csdn.net,作者:文宇肃然,版权归原作者所有,如需转载,请联系作者。

原文链接:wenyusuran.blog.csdn.net/article/details/120763971

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。