hadoop wordCount和grep案例
统计word统计,统计文件里面每一个文件出现的次数!
一.先进入到hadoop-2.8.2目录
2. 在当前目录下建立input目录
3. 把etc/hadoop下的所有xml文件copy到input目录下. 这些xml就是我们要统计的文本。
经过查看,发现input下文件已经过来了。使用ll或ls都可以查看一下。
4. 执行hadoop下的MapReduce任务
代码:
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount input output
#注意output目录不用先有
5. 执行完毕
6. 查看输出目录下内容
会发现多出了在当前hadoop-2.8.2的目录下多了output的目录。查看output下的内容发现有两个文件。
part-r-00000结果文件,_SUCCESS表示成功
7. 查看结果文件
使用more output/part-r-00000
扩展:grep案例
8. 因为output不能重复,所以,本处删除
同学们也可以自己创建自己的目录。
九.grep可以从中找到想要匹配的文本(可以是正则表达式).
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar grep input output 'dfs[a-z.]+'
10. 执行结束
11. 发现在hadoop-2.8.2目录下多了output目录
12. 查看output目录下文件
13. 查看结果文件,符合正则表达式,成功!
- 点赞
- 收藏
- 关注作者
评论(0)