ls
查看目录或者文件
hdfs dfs -ls hdfs://${主节点地址}:${端口号}/${查看的目录} 简写:省略前面的主节点信息 hdfs dfs -ls ${查看的目录}
[root@hadoop109 hadoop]# hdfs dfs -ls hdfs://hadoop101:9000/
Found 1 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 hdfs://hadoop101:9000/README.txt
或者简写将hdfs://hadoop101:9000前缀省略
[root@hadoop109 hadoop]# hdfs dfs -ls /
Found 1 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 /README.txt
put
上传文件
hdfs dfs -put ${本地文件} ${上传到HDFS文件路径}
上传文件
[root@hadoop109 ~]# hdfs dfs -put test.txt /
2020-02-03 09:56:19,803 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
再次查看根目录下文件列表
[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 /README.txt
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
cat
查看文件内容
hdfs dfs -cat ${文件路径}
[root@hadoop103 ~]# hdfs dfs -cat /test.txt
2020-02-03 10:02:00,547 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
hello
world
其中:
第2行为SASL安全提示信息,3、4为文件内容
get
下载HDFS文件到本地
hdfs dfs -get ${HDFS文件路径}
查看本地目录
[root@hadoop109 ~]# ll
总用量 8
-rw-------. 1 root root 1260 10月 30 21:32 anaconda-ks.cfg
-rw-r--r--. 1 root root 12 2月 2 21:06 test.txt2
下载文件
[root@hadoop109 ~]# hdfs dfs -get /test.txt
2020-02-03 10:05:27,668 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
[root@hadoop109 ~]# ll
总用量 12
-rw-------. 1 root root 1260 10月 30 21:32 anaconda-ks.cfg
-rw-r--r--. 1 root root 12 2月 3 10:05 test.txt
-rw-r--r--. 1 root root 12 2月 2 21:06 test.txt2
查看下载的文件内容
[root@hadoop109 ~]# cat test.txt
hello
world
mkdir
创建目录
hdfs dfs -mkdir ${目录路径} 如果创建的目录路径父目录不存在则需要添加 -p参数 hdfs dfs -mkdir -p ${目录路径}
[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 /README.txt
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
[root@hadoop109 ~]# hdfs dfs -mkdir /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 3 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 /README.txt
drwxr-xr-x - root supergroup 0 2020-02-03 10:31 /data
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
创建父目录不存在的目录
[root@hadoop109 ~]# hdfs dfs -mkdir /a/b/c
mkdir: `hdfs://hadoop101:9000/a/b': No such file or directory
[root@hadoop109 ~]# hdfs dfs -mkdir -p /a/b/c
[root@hadoop109 ~]# hdfs dfs -ls /
Found 4 items
-rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 /README.txt
drwxr-xr-x - root supergroup 0 2020-02-03 10:33 /a
drwxr-xr-x - root supergroup 0 2020-02-03 10:31 /data
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
rm
删除文件
hdfs dfs -rm ${文件路径}
删除文件
[root@hadoop109 ~]# hdfs dfs -rm /README.txt
Deleted /README.txt
[root@hadoop109 ~]# hdfs dfs -ls /
Found 3 items
drwxr-xr-x - root supergroup 0 2020-02-03 10:33 /a
drwxr-xr-x - root supergroup 0 2020-02-03 10:31 /data
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
删除目录
[root@hadoop109 ~]# hdfs dfs -rm -r /data
Deleted /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
drwxr-xr-x - root supergroup 0 2020-02-03 10:33 /a
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /test.txt
mv
移动文件
hdfs dfs -mv ${源文件} ${目标目录}
[root@hadoop109 ~]# hdfs dfs -mkdir /data
[root@hadoop109 ~]# hdfs dfs -mv /test.txt /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 1 items
drwxr-xr-x - root supergroup 0 2020-02-03 10:37 /data
[root@hadoop109 ~]# hdfs dfs -ls /data
Found 1 items
-rw-r--r-- 2 root supergroup 12 2020-02-03 09:56 /data/test.txt
更多指令可参考Linux的Shell命令