MapTask的并行度决定map阶段的任务处理并发度,进而影响到整个job的处理速度那么,mapTask并行实例是否越多
越好呢?其并行度又是如何决定呢?Mapper数量由输入文件的数目、大小及配置参数决定;
MapReduce将作业的整个运行过程分为两个阶段:Map阶段Reduce阶段。
Map阶段由一定数量的Map Task实例组成,例如:
Reduce阶段由一定数量的Reduce Task实例组成,例如:
1.MapReduce的Map阶段:
1.1.从HDFS读取数据:
一个job的map阶段并行度由客户端在提交job时决定
而客户端对map阶段并行度的规划的基本逻辑为:将待处理数据执行逻辑切片(即按照一个特定切片大小,将待处理数据
划分成逻辑上的多个split),然后每一个split分配一个MapTask并行实例处理,即就是到底启动多少个MapTask实例就意味着将
数据切成多少份(一个切片对应一个MapTask实例)
切片逻辑及形成的切片规划描述文件,由 FileInputFormat 实现类的getSplits()方法完成:流程如下:

Hadoop_17_MapRduce_MapTask并行度的决定机制
原文:https://www.cnblogs.com/yaboya/p/9208259.html