1. DataNode

2. 数据完整性
奇偶校验位 如果传输数据1为偶数个数则为0 如果为奇数个1则为1
如果原始数据与接收数据发生改变又恰好奇偶性一致 则这个现象我们称为校验碰撞
crc校验位 32位
md5 128位
sha1 160位

3. 扩展集群
服役新数据节点
克隆 修改主机名 ip
#复制module文件夹 在其他集群中复制 和环境变量sudo rsync -av /opt/module hadoop105:/optsudo rsync -av /etc/profile.d hadoop105:/etc
#在扩展机中删除logs data 文件夹cd /opt/module/hadoop-3.1.3/rm -rf data logssource /etc/profilehadoop version
hdfs --daemon start datanodeyarn --daemon start nodemanagerjps
此方式是手动启动 如果想要群启动则需要配置免密登陆
#在102中配置vim /opt/module/hadoop-3.1.3/etc/hadoop/workers
追加上地址
hadoop105
同步所有集群
xsync /opt/module/hadoop-3.1.3/etc/hadoop/workers
3.1. 添加黑/白名单
在hadoop文件夹下 新建balcklist和whitelist
#主机上写 102cd /opt/module/hadoop-3.1.3/etc/hadooptouch balcklisttouch whitelist
添加白名单 一般whitelist内容和workers相同
vim whitelist
hadoop102hadoop103hadoop104hadoop105
再编辑hdfs-size.xml
vim hdfs-site.xml
添加以下内容
<property><name>dfs.hosts.exclude</name><value>/opt/module/hadoop-3.1.3/etc/hadoop/balcklist</value></property><property><name>dfs.hosts</name><value>/opt/module/hadoop-3.1.3/etc/hadoop/whitelist</value></property>
重启集群
stop-dfs.sh
开启
start-dfs.sh
3.2. 黑名单退役
编辑 balcklist 添加黑名单地址
vim balcklisthdfs dfsadmin -refreshNodes #刷新节点
退役的机器 自动上传文件到服役中的其他主机中
关闭节点
hdfs --daemon stop datanode
4. DateNode 多目录配置
DataNode也可以配置成多个目录,每个目录存储的数据不一样。即:数据不是副本
vim hdfs-site.xml
多个目录之间逗号隔开
<property><name>dfs.datanode.data.dir</name><value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value></property>
配置完成后重启
hdfs --daemon stop datanodehdfs --daemon start datanode
