一 加载数据

spark.read.load 是加载数据的通用方法

  1. scala> spark.read.format ("…")[.option ("…")].load ("…")
  • format(“…”):指定加载的数据类型, 包括”csv”、”jdbc” 、”json” 、”orc”、”parquet”和”textFile”
  • load(“…”):保存的路径
  • option(“…”):在”jdbc”格式下需要传入JDBC 相应参数, url 、user、password 和dbtable

Json

加载JSON 文件

  1. val path = "/opt/module/spark-local/people.json"
  2. val peopleDF = spark.read.json (path)

创建临时表

  1. peopleDF.createOrReplaceTempView("people")

数据查询

  1. spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19").show ()
  2. +------+
  3. | name|
  4. +------+
  5. |Justin|
  6. +------+

MySQL

导入依赖

  1. <dependency>
  2. <groupId>mysql</groupId>
  3. <artifactId>mysql-connector-java</artifactId>
  4. <version>5.1.27</version>
  5. </dependency>

读取数据

  1. val conf: SparkConf = new
  2. SparkConf().setMaster("local[*]").setAppName("SparkSQL")
  3. //创建 SparkSession 对象
  4. val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()
  5. import spark.implicits._
  6. //方式 1:通用的 load 方法读取
  7. spark.read.format ("jdbc")
  8. .option ("url", "jdbc:mysql://localhost:3306/sparkDB")
  9. .option("driver", "com.mysql.jdbc.Driver")
  10. .option("user", "root")
  11. .option("password", "root")
  12. .option("dbtable", "user")
  13. .load().show
  14. //释放资源
  15. spark.stop()

二 保存数据

df.write.save 是保存数据的通用方法

  1. scala>df.write.format ("…")[.option ("…")].save ("…")
  • format(“…”):指定保存的数据类型, 包括”csv”、”jdbc” 、”json” 、”orc”、”parquet”、”textFile”
  • save (“…”):保存的路径
  • option(“…”):在”jdbc”格式下需要传入JDBC 相应参数, url 、user、password 和dbtable
Scala/Java Any Language Meaning
SaveMode.ErrorIfExists(default) “error”(default) 如果文件已经存在则抛出异常
SaveMode.Append “append” 如果文件已经存在则追加
SaveMode.Overwrite “overwrite” 如果文件已经存在则覆盖
SaveMode.Ignore “ignore” 如果文件已经存在则忽略

df.write.mode (“append”).json(“/opt/module/data/output”)

MySQL

写入数据

  1. //样例类
  2. case class User2(name: String, age: Long)
  3. //main
  4. val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL")
  5. val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()
  6. import spark.implicits._
  7. val rdd: RDD[User2] = spark.sparkContext.makeRDD(List(User2("lisi", 20), User2("zs", 30)))
  8. val ds: Dataset[User2] = rdd.toDS
  9. ds.write.format("jdbc")
  10. .option("url", "jdbc:mysql://linux1:3306/spark-sql")
  11. .option("user", "root")
  12. .option("password", "123123")
  13. .option("dbtable", "user")
  14. .mode(SaveMode.Append)
  15. .save()