1.hdfs创建目录

    1. hdfs dfs -mkdir -p /test/input
    2. 2.上传文件
    3. hdfs dfs -put 本地文件目录 上传路径
    4. 3.查看目录是否创建成功
    5. hdfs dfs -ls /
    6. hdfs dfs -ls /
    7. 4.查看是否上传成功
    8. hdfs dfs -cat /test/input/input.txt
    9. 5.sbin目录下启动集群
    10. ./start-all.sh

    2.实验一 :网络日志分析
    3.实验二 :Spark-Sql

    1.读取HDFS上的数据
    spark.sparkContext.textFile("")