答えて

2

pythonfile.py

from pyspark.sql import SparkSession 
spark = SparkSession.builder.appName("appName").getOrCreate() 
sc = spark.sparkContext 
rdd = sc.parallelize([1,2,3,4,5,6,7]) 
print(rdd.count()) 

は、あなたが望む構成で上記のプログラムを実行します。例えば:

YOUR_SPARK_HOME/bin/spark-submit --master yourSparkMaster --num-executors 20 \ 
     --executor-memory 1G --executor-cores 2 --driver-memory 1G \ 
     pythonfile.py 

これらのオプションは必須ではありません。同じように実行することもできます

YOUR_SPARK_HOME/bin/spark-submit --master sparkMaster/local pythonfile.py 
関連する問題