ls

查看目录或者文件

hdfs dfs -ls hdfs://${主节点地址}:${端口号}/${查看的目录} 简写:省略前面的主节点信息 hdfs dfs -ls ${查看的目录}

  1. [root@hadoop109 hadoop]# hdfs dfs -ls hdfs://hadoop101:9000/
  2. Found 1 items
  3. -rw-r--r-- 2 root supergroup 1361 2020-01-15 21:35 hdfs://hadoop101:9000/README.txt

或者简写将hdfs://hadoop101:9000前缀省略

[root@hadoop109 hadoop]# hdfs  dfs -ls /
Found 1 items
-rw-r--r--   2 root supergroup       1361 2020-01-15 21:35 /README.txt

put

上传文件

hdfs dfs -put ${本地文件} ${上传到HDFS文件路径}

上传文件

[root@hadoop109 ~]# hdfs dfs -put test.txt /
2020-02-03 09:56:19,803 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false

再次查看根目录下文件列表

[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
-rw-r--r--   2 root supergroup       1361 2020-01-15 21:35 /README.txt
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt

cat

查看文件内容

hdfs dfs -cat ${文件路径}

[root@hadoop103 ~]# hdfs dfs -cat /test.txt
2020-02-03 10:02:00,547 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
hello
world

其中:
第2行为SASL安全提示信息,3、4为文件内容

get

下载HDFS文件到本地

hdfs dfs -get ${HDFS文件路径}

查看本地目录

[root@hadoop109 ~]# ll
总用量 8
-rw-------. 1 root root 1260 10月 30 21:32 anaconda-ks.cfg
-rw-r--r--. 1 root root   12 2月   2 21:06 test.txt2

下载文件

[root@hadoop109 ~]# hdfs dfs -get /test.txt
2020-02-03 10:05:27,668 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
[root@hadoop109 ~]# ll
总用量 12
-rw-------. 1 root root 1260 10月 30 21:32 anaconda-ks.cfg
-rw-r--r--. 1 root root   12 2月   3 10:05 test.txt
-rw-r--r--. 1 root root   12 2月   2 21:06 test.txt2

查看下载的文件内容

[root@hadoop109 ~]# cat test.txt
hello
world

mkdir

创建目录

hdfs dfs -mkdir ${目录路径} 如果创建的目录路径父目录不存在则需要添加 -p参数 hdfs dfs -mkdir -p ${目录路径}

[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
-rw-r--r--   2 root supergroup       1361 2020-01-15 21:35 /README.txt
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt
[root@hadoop109 ~]# hdfs dfs -mkdir /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 3 items
-rw-r--r--   2 root supergroup       1361 2020-01-15 21:35 /README.txt
drwxr-xr-x   - root supergroup          0 2020-02-03 10:31 /data
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt

创建父目录不存在的目录

[root@hadoop109 ~]# hdfs dfs -mkdir /a/b/c
mkdir: `hdfs://hadoop101:9000/a/b': No such file or directory
[root@hadoop109 ~]# hdfs dfs -mkdir -p /a/b/c
[root@hadoop109 ~]# hdfs dfs -ls /
Found 4 items
-rw-r--r--   2 root supergroup       1361 2020-01-15 21:35 /README.txt
drwxr-xr-x   - root supergroup          0 2020-02-03 10:33 /a
drwxr-xr-x   - root supergroup          0 2020-02-03 10:31 /data
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt

rm

删除文件

hdfs dfs -rm ${文件路径}

删除文件

[root@hadoop109 ~]# hdfs dfs -rm /README.txt
Deleted /README.txt
[root@hadoop109 ~]# hdfs dfs -ls /
Found 3 items
drwxr-xr-x   - root supergroup          0 2020-02-03 10:33 /a
drwxr-xr-x   - root supergroup          0 2020-02-03 10:31 /data
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt

删除目录

[root@hadoop109 ~]# hdfs dfs -rm -r /data
Deleted /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 2 items
drwxr-xr-x   - root supergroup          0 2020-02-03 10:33 /a
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /test.txt

mv

移动文件

hdfs dfs -mv ${源文件} ${目标目录}

[root@hadoop109 ~]# hdfs dfs -mkdir /data
[root@hadoop109 ~]# hdfs dfs -mv /test.txt /data
[root@hadoop109 ~]# hdfs dfs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2020-02-03 10:37 /data
[root@hadoop109 ~]# hdfs dfs -ls /data
Found 1 items
-rw-r--r--   2 root supergroup         12 2020-02-03 09:56 /data/test.txt

更多指令可参考Linux的Shell命令