SparkContext。
defaultMinPartitions
默认最小数量的分区Hadoop抽样时由用户
以前的
pyspark.SparkContext.cancelJobGroup
下一个
pyspark.SparkContext.defaultParallelism