1
pysparkを開始すると、SparkSessionが自動的に生成され、「スパーク」として利用可能になります。スパークセッションの詳細を印刷したり表示したりしたいのですが、これらのパラメータにアクセスするのは非常に困難です。SparkSession構成オプションの印刷
Pysparkは自動的にSparkSessionを作成します。これは、次のコードを使用して手動で作成できます。
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("PythonSQL")\
.config("spark.some.config.option", "some-value")\
.getOrCreate()
appnameとconfigオプションを表示/印刷したいと思います。私がこれらを見たい理由は、私が経験している別の問題の結果であり、これが光を当てるかもしれないからです。
spark.sparkContext.appName
設定がRuntimeConfig
を使用してアクセスできます:
おかげで、感謝します! – Michael
私はそれを聞いてうれしいです。問題が解決した場合は、[同意してください](http://meta.stackexchange.com/questions/5234/how-does-accepting-an-answer-work)してください。 – zero323