hadoop wordCount和grep案例
【摘要】 统计word统计,统计文件里面每一个文件出现的次数!一.先进入到hadoop-2.8.2目录2. 在当前目录下建立input目录3. 把etc/hadoop下的所有xml文件copy到input目录下. 这些xml就是我们要统计的文本。经过查看,发现input下文件已经过来了。使用ll或ls都可以查看一下。4. 执行hadoop下的MapReduce任务代码:hadoop jar share...
统计word统计,统计文件里面每一个文件出现的次数!
一.先进入到hadoop-2.8.2目录
2. 在当前目录下建立input目录
3. 把etc/hadoop下的所有xml文件copy到input目录下. 这些xml就是我们要统计的文本。
经过查看,发现input下文件已经过来了。使用ll或ls都可以查看一下。
4. 执行hadoop下的MapReduce任务
代码:
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount input output
#注意output目录不用先有
5. 执行完毕
6. 查看输出目录下内容
会发现多出了在当前hadoop-2.8.2的目录下多了output的目录。查看output下的内容发现有两个文件。
part-r-00000结果文件,_SUCCESS表示成功
7. 查看结果文件
使用more output/part-r-00000
扩展:grep案例
8. 因为output不能重复,所以,本处删除
同学们也可以自己创建自己的目录。
九.grep可以从中找到想要匹配的文本(可以是正则表达式).
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar grep input output 'dfs[a-z.]+'
10. 执行结束
11. 发现在hadoop-2.8.2目录下多了output目录
12. 查看output目录下文件
13. 查看结果文件,符合正则表达式,成功!
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)