概述

Hadoop RPC调用使得HDFS进程能够像本地调用一样调用另一个进程中的方法, 并且可以传递Java基本类型或者自定义类作为参数, 同时接收返回值

如果远程进程在调用过程中出现异常, 本地进程也会收到对应的异常

接口协议

image.png

  • ClientProtocol

    • 客户端与NameNode间通讯接口。客户端对文件系统的所有操作都需要通过这个接口,同时客户端读、写文件等操作也需要先通过这个接口与NameNode协商之后,再进行数据块的读出和写入操作
  • ClientDatanodeProtocol

    • 客户端与数据节点间的接口。 ClientDatanodeProtocol中定义的方法主要是用于客户端获取数据节点信息时调用, 而真正的数据读写交互则是通过流式接口进行的
  • DataNodeProtocol

    • DateNode与NameNode通信, 同时NameNode会通过这个接口中方法的返回值向数据节点下发指令
    • DateNode会通过这个接口向NameNode注册、 汇报数据块的全量以及增量的存储情况。 同时, NameNode也会通过这个接口中方法的返回值, 将NameNode指令带回该数据块, 根据这些指令, 数据节点会执行数据块的复制、 删除以及恢复操作
  • InterDatanodeProtocol

    • DateNode与DateNode间的接口, 数据节点会通过这个接口和其他数据节点通信。 这个接口主要用于数据块的恢复操作, 以及同步数据节点上存储的数据块副本的信息
  • NameNodeProtocol

    • SecondaryNameNode与NameNode间的接口
  • DataTransferProtocol

    • DataTransferProtocol是用来描述写入或者读出Datanode上数据的基于TCP的流式接口,HDFS客户端与数据节点以及数据节点与数据节点之间的数据块传输输就是基于DataTransferProtocol接口实现的
  • 其他接口

    • 主要包括安全相关接口(RefreshAuthorizationPolicyProtocol、RefreshUser MappingsProtocol)、HA相关接口(HAServiceProtocol)等

[

](https://blog.csdn.net/zhanglong_4444/article/details/105586527)

接口协议详情

ClientProtocol

ClientProtocol定义了所有由客户端发起的、 由Namenode响应的操作

按照接口方法分类:

  • HDFS文件读相关的操作
  • HDFS文件写以及追加写的相关操作
  • 管理HDFS命名空间(namespace) 的相关操作
  • 系统问题与管理相关的操作
  • 快照相关的操作
  • 缓存相关的操作
  • 其他操作

读数据相关方法

ClientProtocol与客户端读取文件相关的方法主要有两个:getBlockLocations()reportBadBlocks()

  1. /**
  2. * 客户端会调用ClientProtocol.getBlockLocations()方法
  3. * 获取HDFS文件指定范围内所有数据块的位置信息。
  4. *
  5. * 这个方法的参数是HDFS文件的文件名以及读取范围,返回值是文件指定范围内所有数据块的文件名
  6. * 以及它们的位置信息
  7. * 使用LocatedBlocks对象封装。
  8. *
  9. * 每个数据块的位置信息指的是存储这个数据块副本的所有Datanode的信息,
  10. * 这些Datanode会以与当前客户端的距离远近排序。
  11. *
  12. * 客户端读取数据时,会首先调用getBlockLocations()方法获取HDFS文件的所有数据块的位置信息,
  13. * 然后客户端会根据这些位置信息从数据节点读取数据块。
  14. */
  15. @Idempotent
  16. @ReadOnly(atimeAffected = true, isCoordinated = true)
  17. LocatedBlocks getBlockLocations(String src, long offset, long length) throws IOException;
  1. /**
  2. *
  3. * 客户端会调用ClientProtocol.reportBadBlocks()方法向Namenode汇报错误的数据块。
  4. * 当客户端从数据节点读取数据块且发现数据块的校验和并不正确时,
  5. * 就会调用这个方法向Namenode汇报这个错误的数据块信息。
  6. *
  7. * The client wants to report corrupted blocks (blocks with specified
  8. * locations on datanodes).
  9. * @param blocks Array of located blocks to report
  10. */
  11. @Idempotent
  12. void reportBadBlocks(LocatedBlock[] blocks) throws IOException;

写/追加写数据相关方法

支持HDFS文件的写操作:create()append()addBlock()complete()abandonBlock()updateBlockForPipeline()updatePipeline()

  1. /**
  2. * create()方法用于在HDFS的文件系统目录树中创建一个新的空文件,创建的路径由src参数指定。
  3. * 这个空文件创建后对于其他的客户端是“可读”的,但是这些客户端不能删除、
  4. * 重命名或者移动这个文件,直到这个文件被关闭或者租约过期。
  5. *
  6. * 客户端写一个新的文件时,会首先调用create()方法在文件系统目录树中创建一个空文件,
  7. * 然后调用addBlock()方法获取存储文件数据的数据块的位置信息,
  8. * 最后客户端就可以根据位置信息建立数据流管道,向数据节点写入数据。
  9. *
  10. */
  11. @AtMostOnce
  12. HdfsFileStatus create(String src, FsPermission masked,
  13. String clientName, EnumSetWritable<CreateFlag> flag,
  14. boolean createParent, short replication, long blockSize,
  15. CryptoProtocolVersion[] supportedVersions, String ecPolicyName)
  16. throws IOException;
  17. /**
  18. * append()方法用于打开一个已有的文件,
  19. * 如果这个文件的最后一个数据块没有写满, 则返回这个数据块的位置信息(使用LocatedBlock对象
  20. * 封装);
  21. *
  22. * 如果这个文件的最后一个数据块正好写满,则创建一个新的数据块并添加到这个文件中,
  23. * 然后返回这个新添加的数据块的位置信息。
  24. *
  25. * 客户端追加写一个已有文件时,会先调用append()方法获取最后一个可写数据块的位置信息,
  26. * 然后建立数据流管道,并向数据节点写入追加的数据。
  27. * 如果客户端将这个数据块写满,与create()方法一样,客户端会调用addBlock()方法获取新的数据块
  28. *
  29. */
  30. @AtMostOnce
  31. LastBlockWithStatus append(String src, String clientName,
  32. EnumSetWritable<CreateFlag> flag) throws IOException;
  33. /**
  34. * 客户端调用addBlock()方法向指定文件添加一个新的数据块,
  35. * 并获取存储这个数据块副本的所有数据节点的位置信息(使用LocatedBlock对象封装)。
  36. *
  37. * 要特别注意的是,调用addBlock()方法时还要传入上一个数据块的引用。
  38. * Namenode在分配新的数据块时,会顺便提交上一个数据块,这里previous参数就是上一个数据块的
  39. * 引用。
  40. *
  41. * excludeNodes参数则是数据节点的黑名单,保存了客户端无法连接的一些数据节点,
  42. * 建议Namenode在分配保存数据块副本的数据节点时不要考虑这些节点。
  43. *
  44. * favoredNodes参数则是客户端所希望的保存数据块副本的数据节点的列表。
  45. * 客户端调用addBlock()方法获取新的数据块的位置信息后,会建立到这些数据节点的数据流管道,
  46. * 并通过数据流管道将数据写入数据节点。
  47. *
  48. */
  49. @Idempotent
  50. LocatedBlock addBlock(String src, String clientName,
  51. ExtendedBlock previous, DatanodeInfo[] excludeNodes, long fileId,
  52. String[] favoredNodes, EnumSet<AddBlockFlag> addBlockFlags)
  53. throws IOException;
  54. /**
  55. * 当客户端完成了整个文件的写入操作后,会调用complete()方法通知Namenode。
  56. *
  57. * 这个操作会提交新写入HDFS文件的所有数据块,
  58. * 当这些数据块的副本数量满足系统配置的最小副本系数(默认值为1),
  59. * 也就是该文件的所有数据块至少有一个有效副本时,
  60. * complete()方法会返回true,
  61. * 这时Namenode中文件的状态也会从构建中状态转换为正常状态;
  62. * 否则,complete()会返回false,客户端就需要重复调用complete()操作,直至该方法返回true。
  63. *
  64. */
  65. @Idempotent
  66. boolean complete(String src, String clientName,
  67. ExtendedBlock last, long fileId)
  68. throws IOException;
  69. /**
  70. * abandonBlock()方法用于处理客户端建立数据流管道时数据节点出现故障的情况。
  71. *
  72. * 客户端调用abandonBlock()方法放弃一个新申请的数据块。
  73. *
  74. *
  75. * 问题1: 创建数据块失败
  76. *
  77. * 当客户端获取了一个新申请的数据块,发现无法建立到存储这个数据块副本的某些数据节点的连接时,
  78. * 会调用abandonBlock()方法通知名字节点放弃这个数据块,
  79. * 之后客户端会再次调用addBlock()方法获取新的数据块,
  80. * 并在传入参数时将无法连接的数据节点放入 excludeNodes参数列表中,
  81. * 以避免Namenode将数据块的副本分配到该节点上,
  82. * 造成客户端 再次无法连接这个节点的情况。
  83. *
  84. *
  85. * 问题2: 如果客户端已经成功建立了数据流管道,在客户端写某个数据块时,
  86. * 存储这个数据块副本的某个数据节点出现了错误该如何处理
  87. *
  88. * 客户端首先会调用getAdditionalDatanode()方法向Namenode申请一个新的Datanode来替代出现故
  89. * 障的Datanode,
  90. * 然后客户端会调用updateBlockForPipeline()方法向Namenode申请为这个数据块分配新的时间戳,
  91. * 这样故障节点上的没能写完整的数据块的时间戳就会过期,在后续的块汇报操作中会被删除。
  92. * 最后客户端就可以使用新的时间戳建立新的数据流管道,来执行对数据块的写操作了。
  93. * 数据流管道建立成功后,客户端还需要调用updatePipeline()方法更新
  94. * Namenode中当前数据块的数据流管道信息。至此,一个完整的恢复操作结束。
  95. *
  96. *
  97. * 问题3: 在写数据的过程中,Client节点也有可能在任意时刻发生故障
  98. *
  99. * 对于任意一个Client打开的文件都需要Client定期调用ClientProtocol.renewLease()
  100. * 方法更新租约
  101. * 如果Namenode长时间没有收到Client的租约更新消息,
  102. * 就会认为Client发生故障,这时就会触发一次租约恢复操作,
  103. * 关闭文件并且同步所有数据节点上这个文件数据块的状态,确保HDFS系统中这个文件是正确且一致保存的。
  104. *
  105. */
  106. @Idempotent
  107. void abandonBlock(ExtendedBlock b, long fileId,
  108. String src, String holder)
  109. throws IOException;

命名空间管理&系统问题与管理操作

image.png

快照相关操作

快照保存了一个时间点上HDFS某个路径中所有数据的拷贝,快照可以将失效的集群回滚到之前一个正常的时间点上。用户可以通过hdfs dfs命令执行创建、删除以及重命名快照等操作,ClientProtocol也定义了对应的方法来支持快照命令

在创建快照之前,必须先通过hdfs dfsadmin-allowSnapshot命令开启目录的快照功能,否则不可以在该目录上创建快照

image.png

缓存相关

用户可以指定一些经常被使用的数据或者高优先级任务对应的数据, 让它们常驻内存而不被淘汰到磁盘上.

  • cache directive:表示要被缓存到内存的文件或者目录
  • cache pool:用于管理一系列的cache directive,类似于命名空间。同时使用Unix风格的文件读、写、执行权限管理机制

image.png

ClientDataNodeProtocol

ClientDatanodeProtocol定义了Client与Datanode之间的接口

ClientDatanodeProtocol中定义的接口可以分为两部分:

  • 支持HDFS文件读取操作的, 例如getReplicaVisibleLength()以及getBlockLocalPathInfo()
  • 支持DFSAdmin中与数据节点管理相关的命令 ```java /**
    • 在用户管理员命令中有一个’hdfs dfsadmindatanodehost:port’命令,
    • 用于触发指定的Datanode重新加载配置文件,
    • 停止服务那些已经从配置文件中删除的块池(blockPool),开始服务新添加的块池。 */ void refreshNamenodes() throws IOException;

/**

  • 用于从指定Datanode删除blockpoolId对应的块池,如果force参数被设置了,
  • 那么无论这个块池目录中有没有数据都会被强制删除;
  • 否则,只有这个块池目录为空的情况下才会被删除。 *
  • 如果Datanode还在服务这个块池,这个命令的执行将会失败。
  • 要停止一个数据节点服务指定的块池,需要调用上面提到的refreshNamenodes()方法。 *
  • deleteBlockPool()方法有两个参数,其中blockpoolId用于设置要被删除的块池ID;
  • force用于设置是否强制删除。 / void deleteBlockPool(String bpid, boolean force) throws IOException;

/**

  • HDFS对于本地读取,即Client和保存该数据块的Datanode在同一台物理机器上时,是有很多优化 *
  • Client会调用ClientProtocol.getBlockLocaIPathInfo()方法
  • 获取指定数据块文件以及数据块校验文件在当前节点上的本地路径,
  • 然后利用这个本地路径执行本地读取操作,而不是通过流式接口执行远程读取,这样也就大大优化了
  • 读取的性能。 *
  • 客户端会通过调用DataTransferProtocol接口从数据节点获取数据块文件的文件描述符,
  • 然后打开并读取文件以实现短路读操作,而不是通过ClientDatanodeProtoco接口。 / BlockLocalPathInfo getBlockLocalPathInfo(ExtendedBlock block, Token token) throws IOException;

/**

  • shutdownDatanode()方法用于关闭一个数据节点 */ void shutdownDatanode(boolean forUpgrade) throws IOException;

/**

  • Evict clients that are writing to a datanode. *
  • @throws IOException */ void evictWriters() throws IOException;

/**

  • getDatanodeInfo()方法用于获取指定Datanode的信息,
  • 这里的信息包括Datanode运行的HDFS版本、Datanode配置的HDFS版本,
  • 以及Datanode的启动时间。对应于管理命令’hdfs dfsadmin-getDatanodeInfo’。 *
  • @return software/config version and uptime of the datanode */ DatanodeLocalInfo getDatanodeInfo() throws IOException;

/**

  • startReconfiguration()方法用于触发Datanode异步地从磁盘重新加载配置,并且应用该配置。
  • 这个方法用于支持管理命令’hdfs dfsadmin-getDatanodeInfo-reconfigstart’。 / void startReconfiguration() throws IOException;

/**

  • 查询上一次触发的重新加载配置操作的运行情况 */ ReconfigurationTaskStatus getReconfigurationStatus() throws IOException;

/**

  • Get a list of allowed properties for reconfiguration. */ List listReconfigurableProperties() throws IOException;

/**

  • Trigger a new block report. */ void triggerBlockReport(BlockReportOptions options) throws IOException;

/**

  • 获取平衡器带宽的当前值,以每秒字节数为单位 *
  • @return balancer bandwidth */ long getBalancerBandwidth() throws IOException;

/**

  • 用于获取数据块是存储在指定Datanode的哪个卷 (volume)上的
  • Get volume report of datanode. */ List getVolumeReport() throws IOException;

/**

  • Submit a disk balancer plan for execution. / void submitDiskBalancerPlan(String planID, long planVersion, String planFile,
    1. String planData, boolean skipDateCheck)
    throws IOException;

/**

  • Cancel an executing plan. / void cancelDiskBalancePlan(String planID) throws IOException;

/**

  • Gets the status of an executing diskbalancer Plan. / DiskBalancerWorkStatus queryDiskBalancerPlan() throws IOException;

    /**

  • Gets a run-time configuration value from running diskbalancer instance.
  • For example : Disk Balancer bandwidth of a running instance. *
  • @param key runtime configuration key
  • @return value of the key as a string.
  • @throws IOException - Throws if there is no such key */ String getDiskBalancerSetting(String key) throws IOException; } ```

DataNodeProtocol

DatanodeProtocol是Datanode与Namenode间的接口,Datanode会使用这个接口与Namenode握手、注册、发送心跳、进行全量以及增量的数据块汇报。Namenode会在Datanode的心跳响应中携带名字节点指令, Datanode收到名字节点指令之后会执行对应的操作

租约是Namenode给予租约持有者(LeaseHolder, 一般是客户端)在规定时间内拥有文件权限(写文件)的合同

  1. final static int DNA_UNKNOWN = 0; // unknown action
  2. /**
  3. * 数据块复制
  4. * DNA_TRANSFER指令用于触发数据节点的数据块复制操作,
  5. * 当HDFS系统中某个数据块的副本数小于配置的副本系数时,
  6. * Namenode会通过DNA_TRANSFER指令通知某个拥有这个数据块副本的Datanode将该数据块复制到其他数
  7. * 据节点上。
  8. *
  9. */
  10. final static int DNA_TRANSFER = 1; // transfer blocks to another datanode
  11. /**
  12. * 数据库删除
  13. * DNA_INVALIDATE用于通知Datanode删除数据节点上的指定数据块,
  14. * 这是因为Namenode发现了某个数据块的副本数已经超过了配置的副本系数,
  15. * 这时Namenode会通知某个数据节点删除这个数据节点上多余的数据块副本。
  16. *
  17. */
  18. final static int DNA_INVALIDATE = 2; // invalidate blocks
  19. /**
  20. * 关闭数据节点
  21. * DNA_SHUTDOWN已经废弃不用了,
  22. * Datanode接收到DNASHUTDOWN指令后会直接抛出UnsupportedOperationException异常。
  23. * 关闭Datanode是通过调用ClientDatanodeProtocol.shutdownDatanode()方法来触发的。
  24. *
  25. */
  26. final static int DNA_SHUTDOWN = 3; // shutdown node
  27. //重新注册数据节点
  28. final static int DNA_REGISTER = 4; // re-register
  29. //提交上一次升级
  30. final static int DNA_FINALIZE = 5; // finalize previous upgrade
  31. // 数据块恢复
  32. // 当客户端在写文件时发生异常退出,会造成数据流管道中不同数据节点上数据块状态的不一致,
  33. // 这时Namenode会从数据流管道中选出一个数据节点作为主恢复节点,
  34. // 协调数据流管道中的其他数据节点进行租约恢复操作,以同步这个数据块的状态。
  35. final static int DNA_RECOVERBLOCK = 6; // request a block recovery
  36. //安全相关
  37. final static int DNA_ACCESSKEYUPDATE = 7; // update access key
  38. // 更新平衡器宽度
  39. final static int DNA_BALANCERBANDWIDTHUPDATE = 8; // update balancer bandwidth
  40. //缓存数据换
  41. final static int DNA_CACHE = 9; // cache blocks
  42. //取消缓存数据块
  43. final static int DNA_UNCACHE = 10; // uncache blocks
  44. //擦除编码重建命令
  45. final static int DNA_ERASURE_CODING_RECONSTRUCTION = 11; // erasure coding reconstruction command
  46. // 块存储移动命令
  47. int DNA_BLOCK_STORAGE_MOVEMENT = 12; // block storage movement command
  48. //删除sps工作命令
  49. int DNA_DROP_SPS_WORK_COMMAND = 13; // drop sps work command
  50. /**
  51. * Register Datanode.
  52. *
  53. * 一个完整的Datanode启动操作会与Namenode进行4次交互,即调用4次DatanodeProtocol定义的方法
  54. *
  55. * 首先调用versionRequest()与Namenode进行握手操作,
  56. * 然后调用registerDatanode()向Namenode注册当前的Datanode,
  57. * 接着调用blockReport()汇报Datanode上存储的所有数据块,
  58. * 最后调用cacheReport()汇报Datanode缓存的所有数据块。
  59. *
  60. * 成功进行握手操作后,
  61. * Datanode会调用ClientProtocol.registerDatanode()方法向Namenode注册当前的Datanode,
  62. * 这个方法的参数是一个DatanodeRegistration对象,
  63. * 它封装了DatanodeID、Datanode的存储系统的布局版本号(layoutversion)、
  64. * 当前命名空间的ID(namespaceId)、集群ID(clusterId)、
  65. * 文件系统的创建时间(ctime)以及Datanode当前的软件版本号(softwareVersion)。
  66. *
  67. * namenode节点会判断Datanode的软件版本号与Namenode 的软件版本号是否兼容,
  68. * 如果兼容则进行注册操作,并返回一个DatanodeRegistration对象供Datanode后续处理逻辑使用。
  69. *
  70. */
  71. @Idempotent
  72. public DatanodeRegistration registerDatanode(DatanodeRegistration registration
  73. ) throws IOException;
  74. /**
  75. * Datanode会定期向Namenode发送心跳,dfs.heartbeat.interval配置项配置,默认是3秒
  76. *
  77. * 用于心跳汇报的接口,除了携带标识Datanode身份的DatanodeRegistration对象外,
  78. * 还包括数据节点上所有存储的状态、缓存的状态、正在写文件数据的连接数、读写数据使用的线程数等
  79. *
  80. * sendHeartbeat()会返回一个HeartbeatResponse对象,
  81. * 这个对象包含了Namenode向Datanode发送的名字节点指令,以及当前Namenode的HA状态。
  82. *
  83. * 需要特别注意的是,在开启了HA的HDFS集群中,
  84. * Datanode是需要同时向Active Namenode以及Standby Namenode发送心跳的,
  85. * 不过只有ActiveNamenode才能向Datanode下发名字节点指令。
  86. *
  87. */
  88. @Idempotent
  89. public HeartbeatResponse sendHeartbeat(DatanodeRegistration registration,
  90. StorageReport[] reports,
  91. long dnCacheCapacity,
  92. long dnCacheUsed,
  93. int xmitsInProgress,
  94. int xceiverCount,
  95. int failedVolumes,
  96. VolumeFailureSummary volumeFailureSummary,
  97. boolean requestFullBlockReportLease,
  98. @Nonnull SlowPeerReports slowPeers,
  99. @Nonnull SlowDiskReports slowDisks)
  100. throws IOException;
  101. /**
  102. * Datanode成功向Namenode注册之后,
  103. * Datanode会通过调用DatanodeProtocol.blockReport()方法向Namenode上报它管理的所有数据块的信息。
  104. * 这个方法需要三个参数:
  105. * DatanodeRegistration:用于标识当前的Datanode;
  106. * poolId:用于标识数据块所在的块池ID;
  107. * reports:是一个StorageBlockReport对象的数组,每个StorageBlockReport对象都用于记录
  108. * Datanode上一个存储空间存储的数据块。
  109. *
  110. * 这里需要特别注意的是,上报的数据块是以长整型数组保存的,
  111. * 每个已经提交的数据块(finalized)以3个长整型来表示,
  112. * 每个构建中的数据块(under-construction)以4个长整型来表示。
  113. * 之所以不使用ExtendedBlock对象保存上报的数据块,
  114. * 是因为这样可以减少blockReport()操作所使用的内存,
  115. *
  116. * Namenode接收到消息时,不需要创建大量的ExtendedBlock对象,
  117. * 只需要不断地从长整型数组中提取数据块即可。
  118. *
  119. */
  120. @Idempotent
  121. public DatanodeCommand blockReport(DatanodeRegistration registration,
  122. String poolId, StorageBlockReport[] reports,
  123. BlockReportContext context) throws IOException;
  124. /**
  125. * Namenode接收到blockReport()请求之后,
  126. * 会根据Datanode上报的数据块存储情况建立数据块与数据节点之间的对应关系。
  127. * 同时,Namenode会在blockReport()的响应中携带名字节点指令,
  128. * 通知数据节点进行重新注册、发送心跳、备份或者删除Datanode本地磁盘上数据块副本的操作。
  129. * 这些名字节点指令都是以DatanodeCommand对象封装的
  130. *
  131. * blockReport()方法只在Datanode启动时以及指定间隔时执行一次。
  132. * 间隔是由 dfs.blockreport.intervalMsec参数配置的,默认是6小时执行一次。
  133. */
  134. @Idempotent
  135. public DatanodeCommand cacheReport(DatanodeRegistration registration,
  136. String poolId, List<Long> blockIds) throws IOException;
  137. /**
  138. * Datanode会定期(默认是5分钟,不可以配置)调用blockReceivedAndDeleted()方法
  139. * 向Namenode汇报Datanode新接受的数据块或者删除的数据块。
  140. *
  141. * Datanode接受一个数据块,可能是因为Client写入了新的数据块,
  142. * 或者从别的Datanode上复制一个数据块到当前Datanode。
  143. *
  144. * Datanode删除一个数据块,则有可能是因为该数据块的副本数量过多,
  145. * Namenode向当前Datanode下发了删除数据块副本的指令。
  146. *
  147. * 我们可以把blockReceivedAndDeleted()方法理解为blockReport()的增量汇报,
  148. * 这个方法的参数包括DatanodeRegistration对象、增量汇报数据块所在的块池ID,
  149. * 以及StorageReceivedDeletedBlocks对象的数组,
  150. *
  151. * 这里的StorageReceived DeletedBlocks对象封装了Datanode的一个数据存储上新添加以及删除的
  152. * 数据块集合。
  153. *
  154. * Namenode接受了这个请求之后,会更新它内存中数据块与数据节点的对应关系。
  155. *
  156. */
  157. @Idempotent
  158. public void blockReceivedAndDeleted(DatanodeRegistration registration,
  159. String poolId,
  160. StorageReceivedDeletedBlocks[] rcvdAndDeletedBlocks)
  161. throws IOException;
  162. /**
  163. * 该方法用于向名字节点上报运行过程中 发生的一些状况,如磁盘不可用等
  164. */
  165. @Idempotent
  166. public void errorReport(DatanodeRegistration registration,
  167. int errorCode,
  168. String msg) throws IOException;
  169. /**
  170. * 此方法的返回值是一个NamespaceInfo对象,NamespaceInfo对象会封装当前HDFS集群的命名空间信息,
  171. *
  172. * 包括存储系统的布局版本号(layoutversion)、
  173. * 当前的命名空间的ID(namespaceId)、集群ID(clusterId)、
  174. * 文件系统的创建时间 (ctime)、构建时的HDFS版本号(buildVersion)、
  175. * 块池ID(blockpoolId)、当前的软件版本号(softwareVersion)等。
  176. *
  177. * Datanode获取到NamespaceInfo对象后,
  178. * 就会比较Datanode当前的HDFS版本号和Namenode的HDFS版本号,
  179. * 如果Datanode版本与Namenode版本不能协同工作,则抛出异常,
  180. * Datanode也就无法注册到该Namenode上。
  181. * 如果当前Datanode上已经有了文件存储的目录,
  182. * 那么Datanode还会检查Datanode存储上的块池ID、文件系统ID以及集群ID与Namenode返回的是否一致。
  183. */
  184. @Idempotent
  185. public NamespaceInfo versionRequest() throws IOException;
  186. /**
  187. * reportBadBlocks()与ClientProtocol.reportBad.Blocks()方法很类似,
  188. * Datanode会调用这个方法向Namenode汇报损坏的数据块。
  189. *
  190. * Datanode会在三种情况下调用这个方法:
  191. *
  192. * 1.DataBlockScanner线程定期扫描数据节点上存储的数据块,发现数据块的校验出现错误时;
  193. *
  194. * 2.数据流管道写数据时,Datanode接受了一个新的数据块,进行数据块校验操作出现错误时;
  195. *
  196. * 3.进行数据块复制操作(DataTransfer),Datanode读取本地存储的数据块时,发现本地数据块副本
  197. * 的长度小于Namenode记录的长度,则认为该数据块已经无效,会调用reportBadBlocks()方法。
  198. *
  199. * reportBadBlocks()方法的参数是LocatedBlock对象,这个对象描述了出现错误数据块的位置,
  200. *
  201. * Namenode收到reportBadBlocks()请求后,会下发数据块副本删除指令删除错误的数据块。
  202. *
  203. */
  204. @Idempotent
  205. public void reportBadBlocks(LocatedBlock[] blocks) throws IOException;
  206. /**
  207. * Commit block synchronization in lease recovery
  208. *
  209. * 用于在租约恢复操作时同步数据块的状态。
  210. * 在租约恢复操作时,主数据节点完成所有租约恢复协调操作后调用commitBlockSynchronization()方法
  211. * 同步Datanode和Namenode上数据块的状态,
  212. * 所以commitBlockSynchronization()方法包含了大量的参数。
  213. *
  214. */
  215. @Idempotent
  216. public void commitBlockSynchronization(ExtendedBlock block,
  217. long newgenerationstamp, long newlength,
  218. boolean closeFile, boolean deleteblock, DatanodeID[] newtargets,
  219. String[] newtargetstorages) throws IOException;
  220. }

InterDataNodeProtocol

Datanode与Datanode之间的接口,主要用于租约恢复操作

  1. /**
  2. * 客户端打开一个文件进行写操作时,首先要获取这个文件的租约,并且还需要定期更新租约
  3. * 当Namenode的租约监控线程发现某个HDFS文件租约长期没有更新时,
  4. * 就会认为写这个文件的客户端发生异常,
  5. * 这时Namenode就需要触发租约恢复操作,同步数据流管道中所有Datanode上该文件数据块的状态,
  6. * 并强制关闭这个文件。
  7. *
  8. *
  9. * 租约恢复的控制并不是由Namenode负责的,而是Namenode从数据流管道中选出一个主恢复节点,
  10. * 然后通过下发DatanodeCommand的恢复指令触发这个数据节点控制租约恢复操作,
  11. * 也就是由这个主恢复节点协调整个租约恢复操作的过程。
  12. *
  13. * 主恢复节点会调用InterDatanodeProtocol接口来指挥数据流管道的其他数据节点进行租约恢复。
  14. *
  15. *
  16. * 租约恢复操作其实很简单,
  17. * 就是将数据流管道中所有数据节点上保存的同一个数据块状态(时间戳和数据块长度)同步一致。
  18. * 当成功完成租约恢复后,
  19. * 主恢复节点会调用DatanodeProtocol.commitBlockSynchronization()方法
  20. * 同步namenode节点上该数据块的时间戳和数据块长度,保持名字节点和数据节点的一致。
  21. *
  22. * 由于数据流管道中同一个数据块状态(长度和时间戳)在不同的Datanode上可能是不一致的,
  23. * 所以主恢复节点会首先调用InterDatanodeProtocol.initReplicaRecovery()方法
  24. * 获取数据流管道中所有数据节点上保存的指定数据块的状态,
  25. * 这里的数据块状态使用ReplicaRecoveryInfo类封装。
  26. * 主恢复节点会根据收集到的这些状态,确定一个当前数据块的新长度,
  27. * 并且使用Namenode下发的recoverId作为数据块的新时间戳。
  28. *
  29. * 当完成了所有的同步操作后,
  30. * 主恢复节点节就可以调用DatanodeProtocol.commitBlockSynchronization()
  31. * 将Namenode上该数据块的长度和时间戳同步为新的长度和时间戳,
  32. * 这样Datanode和Namenode的数据也就一致了。
  33. *
  34. */
  35. @KerberosInfo(
  36. serverPrincipal = DFSConfigKeys.DFS_DATANODE_KERBEROS_PRINCIPAL_KEY,
  37. clientPrincipal = DFSConfigKeys.DFS_DATANODE_KERBEROS_PRINCIPAL_KEY)
  38. @InterfaceAudience.Private
  39. public interface InterDatanodeProtocol {
  40. Logger LOG = LoggerFactory.getLogger(InterDatanodeProtocol.class.getName());
  41. public static final long versionID = 6L;
  42. /**
  43. * 由于数据流管道中同一个数据块状态(长度和时间戳)在不同的Datanode上可能是不一致的,
  44. * 所以主恢复节点会首先调用InterDatanodeProtocol.initReplicaRecovery()方法
  45. * 获取数据流管道中所有数据节点上保存的指定数据块的状态,
  46. * 这里的数据块状态使用ReplicaRecoveryInfo类封装。
  47. * 主恢复节点会根据收集到的这些状态,确定一个当前数据块 的新长度,
  48. * 并且使用Namenode下发的recoverId作为数据块的新时间戳。
  49. *
  50. * Initialize a replica recovery.
  51. *
  52. * @return actual state of the replica on this data-node or
  53. * null if data-node does not have the replica.
  54. */
  55. ReplicaRecoveryInfo initReplicaRecovery(RecoveringBlock rBlock)
  56. throws IOException;
  57. /**
  58. * 将数据流管道中所有节点上该数据块的长度同步为新的长度,将数据块的时间戳同步为新的时间戳。
  59. *
  60. * Update replica with the new generation stamp and length.
  61. */
  62. String updateReplicaUnderRecovery(ExtendedBlock oldBlock, long recoveryId,
  63. long newBlockId, long newLength)
  64. throws IOException;
  65. }

DataTransferProtocol

DataTransferProtocol是用来描述写入或者读出Datanode上数据的基于TCP的流式接口,HDFS客户端与数据节点以及数据节点与数据节点之间的数据块传输输就是基于DataTransferProtocol接口实现的

  1. /**
  2. * Licensed to the Apache Software Foundation (ASF) under one
  3. * or more contributor license agreements. See the NOTICE file
  4. * distributed with this work for additional information
  5. * regarding copyright ownership. The ASF licenses this file
  6. * to you under the Apache License, Version 2.0 (the
  7. * "License"); you may not use this file except in compliance
  8. * with the License. You may obtain a copy of the License at
  9. *
  10. * http://www.apache.org/licenses/LICENSE-2.0
  11. *
  12. * Unless required by applicable law or agreed to in writing, software
  13. * distributed under the License is distributed on an "AS IS" BASIS,
  14. * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  15. * See the License for the specific language governing permissions and
  16. * limitations under the License.
  17. */
  18. package org.apache.hadoop.hdfs.protocol.datatransfer;
  19. import java.io.IOException;
  20. import org.apache.hadoop.classification.InterfaceAudience;
  21. import org.apache.hadoop.classification.InterfaceStability;
  22. import org.apache.hadoop.fs.StorageType;
  23. import org.apache.hadoop.hdfs.protocol.BlockChecksumOptions;
  24. import org.apache.hadoop.hdfs.protocol.DatanodeInfo;
  25. import org.apache.hadoop.hdfs.protocol.ExtendedBlock;
  26. import org.apache.hadoop.hdfs.protocol.StripedBlockInfo;
  27. import org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier;
  28. import org.apache.hadoop.hdfs.server.datanode.CachingStrategy;
  29. import org.apache.hadoop.hdfs.shortcircuit.ShortCircuitShm.SlotId;
  30. import org.apache.hadoop.security.token.Token;
  31. import org.apache.hadoop.util.DataChecksum;
  32. import org.slf4j.Logger;
  33. import org.slf4j.LoggerFactory;
  34. /**
  35. * DataTransferProtocol接口调用并没有使用Hadoop RPC框架提供的功能,
  36. * 而是定义了用于发送DataTransferProtocol请求的Sender类,
  37. * 以及用于响应DataTransferProtocol请求的Receiver类,
  38. *
  39. * Sender类和Receiver类都实现了DataTransferProtocol接口。
  40. * 我们假设DFSClient发起了一个DataTransferProtocol.readBlock()操作,
  41. * 那么DFSClient会调用Sender将这个请求序列化,并传输给远端的Receiver。
  42. * 远端的Receiver接收到这个请求后,会反序列化请求,然后调用代码执行读取操作。
  43. *
  44. */
  45. @InterfaceAudience.Private
  46. @InterfaceStability.Evolving
  47. public interface DataTransferProtocol {
  48. Logger LOG = LoggerFactory.getLogger(DataTransferProtocol.class);
  49. /** Version for data transfers between clients and datanodes
  50. * This should change when serialization of DatanodeInfo, not just
  51. * when protocol changes. It is not very obvious.
  52. */
  53. /*
  54. * Version 28:
  55. * Declare methods in DataTransferProtocol interface.
  56. */
  57. int DATA_TRANSFER_VERSION = 28;
  58. /**
  59. * Read a block.
  60. *
  61. * @param blk the block being read.
  62. * @param blockToken security token for accessing the block.
  63. * @param clientName client's name.
  64. * @param blockOffset offset of the block.
  65. * @param length maximum number of bytes for this read.
  66. * @param sendChecksum if false, the DN should skip reading and sending
  67. * checksums
  68. * @param cachingStrategy The caching strategy to use.
  69. *
  70. * 从当前Datanode读取指定的数据块。
  71. */
  72. void readBlock(final ExtendedBlock blk,
  73. final Token<BlockTokenIdentifier> blockToken,
  74. final String clientName,
  75. final long blockOffset,
  76. final long length,
  77. final boolean sendChecksum,
  78. final CachingStrategy cachingStrategy) throws IOException;
  79. /**
  80. * 将指定数据块写入数据流管道(pipeLine)中。
  81. * Write a block to a datanode pipeline.
  82. * The receiver datanode of this call is the next datanode in the pipeline.
  83. * The other downstream datanodes are specified by the targets parameter.
  84. * Note that the receiver {@link DatanodeInfo} is not required in the
  85. * parameter list since the receiver datanode knows its info. However, the
  86. * {@link StorageType} for storing the replica in the receiver datanode is a
  87. * parameter since the receiver datanode may support multiple storage types.
  88. *
  89. * @param blk the block being written.
  90. * @param storageType for storing the replica in the receiver datanode.
  91. * @param blockToken security token for accessing the block.
  92. * @param clientName client's name.
  93. * @param targets other downstream datanodes in the pipeline.
  94. * @param targetStorageTypes target {@link StorageType}s corresponding
  95. * to the target datanodes.
  96. * @param source source datanode.
  97. * @param stage pipeline stage.
  98. * @param pipelineSize the size of the pipeline.
  99. * @param minBytesRcvd minimum number of bytes received.
  100. * @param maxBytesRcvd maximum number of bytes received.
  101. * @param latestGenerationStamp the latest generation stamp of the block.
  102. * @param requestedChecksum the requested checksum mechanism
  103. * @param cachingStrategy the caching strategy
  104. * @param allowLazyPersist hint to the DataNode that the block can be
  105. * allocated on transient storage i.e. memory and
  106. * written to disk lazily
  107. * @param pinning whether to pin the block, so Balancer won't move it.
  108. * @param targetPinnings whether to pin the block on target datanode
  109. * @param storageID optional StorageIDs designating where to write the
  110. * block. An empty String or null indicates that this
  111. * has not been provided.
  112. * @param targetStorageIDs target StorageIDs corresponding to the target
  113. * datanodes.
  114. */
  115. void writeBlock(final ExtendedBlock blk,
  116. final StorageType storageType,
  117. final Token<BlockTokenIdentifier> blockToken,
  118. final String clientName,
  119. final DatanodeInfo[] targets,
  120. final StorageType[] targetStorageTypes,
  121. final DatanodeInfo source,
  122. final BlockConstructionStage stage,
  123. final int pipelineSize,
  124. final long minBytesRcvd,
  125. final long maxBytesRcvd,
  126. final long latestGenerationStamp,
  127. final DataChecksum requestedChecksum,
  128. final CachingStrategy cachingStrategy,
  129. final boolean allowLazyPersist,
  130. final boolean pinning,
  131. final boolean[] targetPinnings,
  132. final String storageID,
  133. final String[] targetStorageIDs) throws IOException;
  134. /**
  135. * 将指定数据块复制(transfer)到另一个Datanode上。
  136. *
  137. * 数据块复制操作是指数据流管道中的数据节点出现故障,
  138. * 需要用新的数据节点替换异常的数据节点时,
  139. * DFSClient会调用这个方法将数据流管道中异常数据节点上已经写入的数据块复制到新添加的数据节点上。
  140. *
  141. * Transfer a block to another datanode.
  142. * The block stage must be
  143. * either {@link BlockConstructionStage#TRANSFER_RBW}
  144. * or {@link BlockConstructionStage#TRANSFER_FINALIZED}.
  145. *
  146. * @param blk the block being transferred.
  147. * @param blockToken security token for accessing the block.
  148. * @param clientName client's name.
  149. * @param targets target datanodes.
  150. * @param targetStorageIDs StorageID designating where to write the
  151. * block.
  152. */
  153. void transferBlock(final ExtendedBlock blk,
  154. final Token<BlockTokenIdentifier> blockToken,
  155. final String clientName,
  156. final DatanodeInfo[] targets,
  157. final StorageType[] targetStorageTypes,
  158. final String[] targetStorageIDs) throws IOException;
  159. /**
  160. * 获取一个短路(short circuit)读取数据块的文件描述符
  161. * Request short circuit access file descriptors from a DataNode.
  162. *
  163. * @param blk The block to get file descriptors for.
  164. * @param blockToken Security token for accessing the block.
  165. * @param slotId The shared memory slot id to use, or null
  166. * to use no slot id.
  167. * @param maxVersion Maximum version of the block data the client
  168. * can understand.
  169. * @param supportsReceiptVerification True if the client supports
  170. * receipt verification.
  171. *
  172. */
  173. void requestShortCircuitFds(final ExtendedBlock blk,
  174. final Token<BlockTokenIdentifier> blockToken,
  175. SlotId slotId, int maxVersion, boolean supportsReceiptVerification)
  176. throws IOException;
  177. /**
  178. * 释放一个短路读取数据块的文件描述符。
  179. * Release a pair of short-circuit FDs requested earlier.
  180. *
  181. * @param slotId SlotID used by the earlier file descriptors.
  182. */
  183. void releaseShortCircuitFds(final SlotId slotId) throws IOException;
  184. /**
  185. * 获取保存短路读取数据块的共享内存
  186. * Request a short circuit shared memory area from a DataNode.
  187. *
  188. * @param clientName The name of the client.
  189. */
  190. void requestShortCircuitShm(String clientName) throws IOException;
  191. /**
  192. * 将从源Datanode复制来的数据块写入本地Datanode。
  193. * 写成功后通 知NameNode,并且删除源Datanode上的数据块。
  194. *
  195. * 这个方法主要用在数据块平衡 操作(balancing)的场景下。
  196. * source datanode 和 original datanode 必须不同.
  197. *
  198. * Receive a block from a source datanode
  199. * and then notifies the namenode
  200. * to remove the copy from the original datanode.
  201. * Note that the source datanode and the original datanode can be different.
  202. * It is used for balancing purpose.
  203. *
  204. * @param blk the block being replaced.
  205. * @param storageType the {@link StorageType} for storing the block.
  206. * @param blockToken security token for accessing the block.
  207. * @param delHint the hint for deleting the block in the original datanode.
  208. * @param source the source datanode for receiving the block.
  209. * @param storageId an optional storage ID to designate where the block is
  210. * replaced to.
  211. */
  212. void replaceBlock(final ExtendedBlock blk,
  213. final StorageType storageType,
  214. final Token<BlockTokenIdentifier> blockToken,
  215. final String delHint,
  216. final DatanodeInfo source,
  217. final String storageId) throws IOException;
  218. /**
  219. * Copy a block.
  220. * It is used for balancing purpose.
  221. *
  222. * 复制当前Datanode上的数据块。这个方法主要用在数据块平衡操作 的场景下。
  223. *
  224. * @param blk the block being copied.
  225. * @param blockToken security token for accessing the block.
  226. */
  227. void copyBlock(final ExtendedBlock blk,
  228. final Token<BlockTokenIdentifier> blockToken) throws IOException;
  229. /**
  230. * 获取指定数据块的校验值。
  231. * Get block checksum (MD5 of CRC32).
  232. *
  233. * @param blk a block.
  234. * @param blockToken security token for accessing the block.
  235. * @param blockChecksumOptions determines how the block-level checksum is
  236. * computed from underlying block metadata.
  237. * @throws IOException
  238. */
  239. void blockChecksum(ExtendedBlock blk,
  240. Token<BlockTokenIdentifier> blockToken,
  241. BlockChecksumOptions blockChecksumOptions) throws IOException;
  242. /**
  243. * Get striped block group checksum (MD5 of CRC32).
  244. *
  245. * @param stripedBlockInfo a striped block info.
  246. * @param blockToken security token for accessing the block.
  247. * @param requestedNumBytes requested number of bytes in the block group
  248. * to compute the checksum.
  249. * @param blockChecksumOptions determines how the block-level checksum is
  250. * computed from underlying block metadata.
  251. * @throws IOException
  252. */
  253. void blockGroupChecksum(StripedBlockInfo stripedBlockInfo,
  254. Token<BlockTokenIdentifier> blockToken,
  255. long requestedNumBytes,
  256. BlockChecksumOptions blockChecksumOptions) throws IOException;
  257. }