hadoop wordCount和grep案例

举报
tea_year 发表于 2024/02/11 08:52:14 2024/02/11
【摘要】 统计word统计,统计文件里面每一个文件出现的次数!一.先进入到hadoop-2.8.2目录2. 在当前目录下建立input目录3. 把etc/hadoop下的所有xml文件copy到input目录下. 这些xml就是我们要统计的文本。经过查看,发现input下文件已经过来了。使用ll或ls都可以查看一下。4. 执行hadoop下的MapReduce任务代码:hadoop jar share...


统计word统计,统计文件里面每一个文件出现的次数!

一.先进入到hadoop-2.8.2目录

2. 在当前目录下建立input目录

3. 把etc/hadoop下的所有xml文件copy到input目录下. 这些xml就是我们要统计的文本。

经过查看,发现input下文件已经过来了。使用ll或ls都可以查看一下。

4. 执行hadoop下的MapReduce任务

代码:

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount input output

#注意output目录不用先有

5. 执行完毕

6. 查看输出目录下内容

会发现多出了在当前hadoop-2.8.2的目录下多了output的目录。查看output下的内容发现有两个文件。

part-r-00000结果文件,_SUCCESS表示成功

7. 查看结果文件

使用more output/part-r-00000


扩展:grep案例

8. 因为output不能重复,所以,本处删除

同学们也可以自己创建自己的目录。


九.grep可以从中找到想要匹配的文本(可以是正则表达式).

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar grep input output 'dfs[a-z.]+'

10. 执行结束


11. 发现在hadoop-2.8.2目录下多了output目录

12. 查看output目录下文件

13. 查看结果文件,符合正则表达式,成功!

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。