使用Spark-Shell方式
https://blog.csdn.net/qq_41489540/article/details/109956754
使用spark-sql cli
这种使用场景基本就是测试环境用用,生产环境很少用..
为什么要有spark-sql cli?
因为在spark-shell执行 hive 方面的查询比较麻烦需要 .spark.sql(“select * from student “).show方式,很麻烦
Spark 专门给我们提供了书写 HiveQL 的工具: spark-sql cli
开始使用
在spark的bin目录下直接执行:
[root@zjj101 bin]# sh spark-sql
spark-sql (default)> select * from student;
# 省略了一些日志没打在上面
20/11/22 16:35:00 INFO scheduler.DAGScheduler: Job 1 finished: processCmd at CliDriver.java:376, took 0.317642 s
id name
1 zhangsan
NULL NULL
NULL NULL
NULL NULL
Time taken: 1.363 seconds, Fetched 4 row(s)
20/11/22 16:35:00 INFO CliDriver: Time taken: 1.363 seconds, Fetched 4 row(s)
就可以直接执行SQL操作