Using the Shell

在Spark脚本下,一个特殊的解释器下的 SparkContext已经为你创建好了,是一个叫做sc的变量。构建你自己的SparkContentex是不管用的。你可以使用--master参数来设置master, 你也可以传递通过逗号分割的--jars的参数来添加JARs到类加载路径。比如,在4核下运行bin\spark-shell:

  1. $ ./bin/spark-shell --master local[4]

或者,添加code.jar到类加载路径,

  1. $ ./bin/spark-shell --master local[4] --jars code.jar

运行spark-shell --help可以得到全部的可选参数。在解释器背后,spark-shell调用了更通用的spark-submit 脚本