我想知道如何在pyspark中指定Spark版本2 的自定义分配器类。在1.6以下,我知道我可以这样做:
sc = SparkContext('local', 'test', profiler_cls='MyProfiler')
但是当我在2.0中创建SparkSession
时,我无法明确访问SparkContext
。有人可以建议如何使用Spark 2.0 ?
SparkSession
可以用现有的SparkContext
初始化,例如:
from pyspark import SparkContext
from pyspark.sql import SparkSession
from pyspark.profiler import BasicProfiler
spark = SparkSession(SparkContext('local', 'test', profiler_cls=BasicProfiler))