输入数据接口:InputFormat

  • 默认使用的实现类是:TextInputFormat

    • TextInputFormat 的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为 value 返回。
    • CombineTextInputFormat 可以把多个小文件合并成一个切片处理,提高处理效率。 适用小文件过多的场景

      逻辑处理接口:Mapper

  • 用户根据业务需求实现其中三个方法:map() setup() cleanup ()

  • Map阶段并行度由input的切片数决定 (不是hdfs块数)
    • 对文件而不是目录进行切片,不大于1.1倍就切一片
  • 默认情况下,切片大小=BlockSize
  • 针对每一个文件单独切片

image.png

  1. //切片参数设置
  2. Math.max(minSize, Math.min(maxSize, blockSize));
  3. mapreduce.input.fileinputformat.split.minsize=1 默认值为1
  4. mapreduce.input.fileinputformat.split.maxsize= Long.MAXValue 默认值Long.MAXValue

Partitioner 分区

  • 有默认实现 HashPartitioner,逻辑是根据 key 的哈希值和 numReduces 来返回一个分区号;key.hashCode()&Integer.MAXVALUE % numReduces
  • 如果业务上有特别的需求,可以自定义分区。

    Comparable 排序

    对于MapTask,它会将处理的结果暂时放到环形缓冲区中,当环形缓冲区使 用率达到一定阈值后,再对缓冲区中的数据进行一次快速排序,并将这些有序数 据溢写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行归并排序。
    对于ReduceTask,它从每个MapTask上远程拷贝相应的数据文件,如果文件大 小超过一定阈值,则溢写磁盘上,否则存储在内存中。如果磁盘上文件数目达到 一定阈值,则进行一次归并排序以生成一个更大文件;如果内存中文件大小或者 数目超过一定阈值,则进行一次合并后将数据溢写到磁盘上。当所有数据拷贝完 毕后,ReduceTask统一对内存和磁盘上的所有数据进行一次归并排序

  • 当我们用自定义的bean作为 key 来输出时,就必须要实现WritableComparable 接口,重写其中的 compareTo()方法。

  • 排序分类:

    • 部分排序:对最终输出的每一个文件进行内部排序。
    • 全排序:对所有数据进行排序,通常只有一个 Reduce。
    • 二次排序:排序的条件有两个。

      Combiner 合并

  • Combiner 合并 对灭一个maptask进行局部汇总,可以提高程序执行效率,减少 IO 传输。但是使用时必须不能影响原有的业务处理结果。

    逻辑处理接口:Reducer

  • 用户根据业务需求实现其中三个方法:reduce() setup() cleanup ()

    输出数据接口:OutputFormat

  • 默认实现类是 TextOutputFormat,功能逻辑是:将每一个 KV 对,向目标文本文件输出一行。

  • 用户还可以自定义 OutputFormat。