1.hdfs创建目录
hdfs dfs -mkdir -p /test/input2.上传文件hdfs dfs -put 本地文件目录 上传路径3.查看目录是否创建成功hdfs dfs -ls /hdfs dfs -ls /4.查看是否上传成功hdfs dfs -cat /test/input/input.txt5.再sbin目录下启动集群./start-all.sh
2.实验一 :网络日志分析
3.实验二 :Spark-Sql
1.读取HDFS上的数据
spark.sparkContext.textFile("")
