一、MapReduce的执行大致流程

1、InputFormat数据读取流程

1.1、切片

  1. - 切片的概念:从文件的逻辑上进行大小的切分,一个切片多大,将来一个MapTask的处理的数据就多大
  2. - 一个切片就会产生一个MapTask
  3. - 切片时只考虑文件本身,不考虑数据的整体集
  4. - 切片大小和切块大小默认是一致的,这样设计的目的是为了避免将来切片读取数据的时候有跨机器的情况

1.2、InputFormat的体系结构

  1. -- FileInputFormat InputFormat的子实现类,实现切片逻辑
  2. 实现了getSplits() 负责切片
  3. -- TextInputFormat FileInputFormat的子实现类, 实现读取数据的逻辑
  4. createRecordReader() 返回一个RecordReader,在RecordReader中实现了
  5. 读取数据的方式:安行读取。
  6. -- CombineFileInputFormat FileInputFormat的子实现类,此类中也实现了
  7. 一套切片逻辑 (处理:适用于小文件计算场景。)
  8. // 切片源码分析
  9. public List<InputSplit> getSplits(JobContext job) throws IOException {
  10. StopWatch sw = new StopWatch().start();
  11. // minSize = 1(默认情况)
  12. // 但是我们也可以通过改变mapreduce.input.fileinputformat.split.minsize 配置项来改变minSize大小
  13. long minSize = Math.max(getFormatMinSplitSize(), getMinSplitSize(job));
  14. // maxSize = Long的最大值(默认情况)
  15. // 但是我们也可以通过改变mapreduce.input.fileinputformat.split.maxsize 配置项来改变maxSize大小
  16. long maxSize = getMaxSplitSize(job);
  17. // 管理最终切完片的对象的集合 最终返回的就是此集合
  18. List<InputSplit> splits = new ArrayList<InputSplit>();
  19. // 获取当前文件的详情
  20. List<FileStatus> files = listStatus(job);
  21. boolean ignoreDirs = !getInputDirRecursive(job)
  22. && job.getConfiguration().getBoolean(INPUT_DIR_NONRECURSIVE_IGNORE_SUBDIRS, false);
  23. // 遍历获取到的文件列表,一次按照文件为单位进行切片
  24. for (FileStatus file: files) {
  25. // 如果是忽略文件以及是文件夹就不进行切片
  26. if (ignoreDirs && file.isDirectory()) {
  27. continue;
  28. }
  29. // 获取文件的路径
  30. Path path = file.getPath();
  31. // 获取文件的内容大小
  32. long length = file.getLen();
  33. // 如果不是空文件 继续切片
  34. if (length != 0) {
  35. // 获取文件的具体的块信息
  36. BlockLocation[] blkLocations;
  37. if (file instanceof LocatedFileStatus) {
  38. blkLocations = ((LocatedFileStatus) file).getBlockLocations();
  39. } else {
  40. FileSystem fs = path.getFileSystem(job.getConfiguration());
  41. blkLocations = fs.getFileBlockLocations(file, 0, length);
  42. }
  43. // 判断是否要进行切片(主要判断当前文件是否是压缩文件,有一些压缩文件时不能够进行切片)
  44. if (isSplitable(job, path)) {
  45. // 获取HDFS中的数据块的大小
  46. long blockSize = file.getBlockSize();
  47. // 计算切片的大小--> 128M 默认情况下永远都是块大小
  48. long splitSize = computeSplitSize(blockSize, minSize, maxSize);
  49. -- 内部方法:
  50. protected long computeSplitSize(long blockSize, long minSize,
  51. long maxSize) {
  52. return Math.max(minSize, Math.min(maxSize, blockSize));
  53. }
  54. long bytesRemaining = length;
  55. // 判断当前的文件的剩余内容是否要继续切片 SPLIT_SLOP = 1.1
  56. // 判断公式:bytesRemaining)/splitSize > SPLIT_SLOP
  57. // 用文件的剩余大小/切片大小 > 1.1 才继续切片(这样做的目的是为了让我们每一个MapTask处理的数据更加均衡)
  58. while (((double) bytesRemaining)/splitSize > SPLIT_SLOP) {
  59. int blkIndex = getBlockIndex(blkLocations, length-bytesRemaining);
  60. splits.add(makeSplit(path, length-bytesRemaining, splitSize,
  61. blkLocations[blkIndex].getHosts(),
  62. blkLocations[blkIndex].getCachedHosts()));
  63. bytesRemaining -= splitSize;
  64. }
  65. // 如果最后文件还有剩余且不足一个切片大小,最后再形成最后的一个切片
  66. if (bytesRemaining != 0) {
  67. int blkIndex = getBlockIndex(blkLocations, length-bytesRemaining);
  68. splits.add(makeSplit(path, length-bytesRemaining, bytesRemaining,
  69. blkLocations[blkIndex].getHosts(),
  70. blkLocations[blkIndex].getCachedHosts()));
  71. }
  72. } else { // not splitable
  73. if (LOG.isDebugEnabled()) {
  74. // Log only if the file is big enough to be splitted
  75. if (length > Math.min(file.getBlockSize(), minSize)) {
  76. LOG.debug("File is not splittable so no parallelization "
  77. + "is possible: " + file.getPath());
  78. }
  79. }
  80. splits.add(makeSplit(path, 0, length, blkLocations[0].getHosts(),
  81. blkLocations[0].getCachedHosts()));
  82. }
  83. } else {
  84. //Create empty hosts array for zero length files
  85. splits.add(makeSplit(path, 0, length, new String[0]));
  86. }
  87. }
  88. // Save the number of input files for metrics/loadgen
  89. job.getConfiguration().setLong(NUM_INPUT_FILES, files.size());
  90. sw.stop();
  91. if (LOG.isDebugEnabled()) {
  92. LOG.debug("Total # of splits generated by getSplits: " + splits.size()
  93. + ", TimeTaken: " + sw.now(TimeUnit.MILLISECONDS));
  94. }
  95. return splits;
  96. }

2、Shuffle工作机制