SparkContext 与JavaSparkContext互相转化

https://blog.csdn.net/incredibleWu/article/details/99974210问题 在spark2.0中,官方推荐Spark中所有功能的入口点都是SparkSession类,对于Java开发人员来说,就不太方便从SparkSession中获取JavaSparkContext
SparkSession就是设计出来合并SparkContext和SQLContext的。我建议能用SparkSession就尽量用。如果发现有些API不在SparkSession中,你还是可以通过SparkSession来拿到SparkContext和SQLContex的。
2.0之前JavaSparkContext写法: 2.0版本之后推荐写法:
解决办法SparkSession spark = SparkSession .builder() .appName(“Java Spark SQL basic example”) .config(“spark.some.config.option”, “some-value”) .getOrCreate();//从sparkContext中得到JavaSparkContextJavaSparkContext sc = JavaSparkContext.fromSparkContext(spark.sparkContext());//从JavaSparkContext中得到SparkContextSparkContext sparkContext = JavaSparkContext.toSparkContext(sc);