一:HDFS的权限

1:hdfs是一个文件系统

类unix、linux,有用户的概念,没有相关命令和接口创建用户

2:hdfs信任客户端

默认情况下使用操作系统提供的用户

3:有超级用户的概念

linux超级用户:root

hdfs系统中超级用户:是namenode进程的启动用户

4:有权限概念

hdfs的权限是自己控制的 来自于hdfs的超级用户

二:实操

1:面向操作系统

root是管理员 其他用户都叫【普通用户】

2:面向操作系统的软件

谁启动,管理这个进程,那么这个用户叫做这个软件的管理员

3:实操

  1. 切换我们用root搭建的HDFS god这个用户来启动<br /> node01~node04:<br />` stop-dfs.sh`

1:添加用户:root

useradd god
passwd god

2:讲资源与用户绑定(a,安装部署程序;b,数据存放的目录)

chown -R god src
chown -R god /opt/bigdata/hadoop-2.6.5
chown -R god /var/bigdata/hadoop

3:切换到god去启动 start-dfs.sh < 需要免密

  1. god做免密<br /> *我们是HA模式:免密的2中场景都要做的<br /> ssh localhost >> 为了拿到.ssh<br /> node01~node02:
  1. cd /home/god/.ssh
  2. ssh-keygen -t dsa -P '' -f ./id_dsa
  1. node01:
  1. ssh-copy-id -i id_dsa node01
  2. ssh-copy-id -i id_dsa node02
  3. ssh-copy-id -i id_dsa node03
  4. ssh-copy-id -i id_dsa node04

node02:

  1. cd /home/god/.ssh
  2. ssh-copy-id -i id_dsa node01
  3. ssh-copy-id -i id_dsa node02

4:hdfs-site.xml

  1. <property>
  2. <name>dfs.ha.fencing.ssh.private-key-files</name>
  3. <value>/home/god/.ssh/id_dsa</value>
  4. </property>

分发给node02~04

5:god : start-dfs.sh