1.hdfs创建目录
hdfs dfs -mkdir -p /test/input
2.上传文件
hdfs dfs -put 本地文件目录 上传路径
3.查看目录是否创建成功
hdfs dfs -ls /
hdfs dfs -ls /
4.查看是否上传成功
hdfs dfs -cat /test/input/input.txt
5.再sbin目录下启动集群
./start-all.sh
2.实验一 :网络日志分析
3.实验二 :Spark-Sql
1.读取HDFS上的数据
spark.sparkContext.textFile("")