0
PySparkバージョン2+用のPySparkでカスタムプロファイラクラスを指定する方法を知りたいと思います。spark 2.0を実行するpysparkのカスタムプロファイラの指定
sc = SparkContext('local', 'test', profiler_cls='MyProfiler')
を私は2.0でSparkSession
を作成するとき、私は明示的に SparkContext
へのアクセスを持っていない:1.6の下で、私はこのようにそれを行うことができます知っています。誰かがSpark 2.0+のためにこれを行う方法をアドバイスできますか?