MapReduce快速入门系列(5) | MapReduce任务流程和shuffle机制的简单解析

举报
不温卜火 发表于 2020/12/03 00:24:01 2020/12/03
【摘要】 Hello,大家好,在本系列的第一篇博文中,博主已经为大家介绍了MapReduce的相关概念。其中谈到了MapReduce主要由Map和Reduce两个过程组成!事实上,为了让Reduce可以并行处理Map的结果,需要对Map的输出进行一定的分区(Partition),排序(Sort),合并(Combine),分组(Group)等操作,得到<key,valu...

Hello,大家好,在本系列的第一篇博文中,博主已经为大家介绍了MapReduce的相关概念。其中谈到了MapReduce主要由Map和Reduce两个过程组成!事实上,为了让Reduce可以并行处理Map的结果,需要对Map的输出进行一定的分区(Partition),排序(Sort),合并(Combine),分组(Group)等操作,得到<key,value-list>形式的中间结果,再交给对应的Reduce 进行处理,这个过程也就是小菌需要为大家介绍的,叫做Shuffle(混洗)。


1. Shuffle机制

Shuffle机制如下:
1
  是不是发现可能看不懂!没关系下面开始细化详解一下。

2. Shuffle阶段的四个操作

  下图为Shuffle阶段的四个操作的具体功能演示:
2

  • 如果对上图的一脸懵逼,不要慌!下面即为详细解答:
  • 第5步:对输出的key,value对进行分区。相同key的数据发送到同一个reduce里面去,相同key合并,value形成一个集合
  • 第6步:对不同分区的数据按照相同的key进行排序
  • 第7步:对分组后的数据进行规约(combine操作),降低数据的网络拷贝(可选步骤)
  • 第8步:对排序后的额数据进行分组,分组的过程中,将相同key的value放到一个集合当中

3. MapReduce工作流程

3.1 MapReduce的整个任务执行过程

由于空间有限,2,3步骤过程较为抽象,只做文字说明
3

  • 具体每步的详细流程如下:
1步:InputFormat
InputFormat 到hdfs上读取数据
将数据传给Split
第2步:Split
Split将数据进行逻辑切分,
将数据传给RR
第3步:RR(RecordReader)
RR:将传入的数据转换成一行一行的数据,输出行首字母偏移量和偏移量对应的数据
将数据传给MAP
第4步:MAP
MAP:根据业务需求实现自定义代码
将数据传给Shuffle的partition
第5步:partition
partition:按照一定的分区规则,将key value的list进行分区。
将数据传给Shuffle的Sort
第6步:Sort
Sort:对分区内的数据进行排序
将数据传给Shuffle的combiner
第7步:combiner
combiner:对数据进行局部聚合。
将数据传给Shuffle的Group
第8步:Group
Group:将相同key的key提取出来作为唯一的key,
将相同key对应的value获取出来作为value的list
将数据传给Reduce
第9步:Reduce
Reduce:根据业务需求进行最终的合并汇总。
将数据传给outputFormat
第10步:outputFormat
outputFormat:将数据写入HDFS

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

3.2 MapReduce工作流程图(全)

  • 1. MapReduce详细工作流程(一)
    4
  • 2. MapReduce详细工作流程(二)
    5
  • 3. 详细流程解析
    上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:
    ① MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中
    ② 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
    ③ 多个溢出文件会被合并成大的溢出文件
    ④ 在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序
    ⑤ ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据
    ⑥ ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)
    ⑦ 合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)

3.3 注意

  Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。
  缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M


本次关于MapReduce任务流程和shuffle机制的简单解析就到这里了,关于流程中shuffle阶段的Partition分区算法以及split的逻辑切分规律,博主会在后续的博客中为大家解答,感兴趣的小伙伴们记得关注博主呀!

文章来源: buwenbuhuo.blog.csdn.net,作者:不温卜火,版权归原作者所有,如需转载,请联系作者。

原文链接:buwenbuhuo.blog.csdn.net/article/details/105712031

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。