3
私は "sbt assembly"を使ってUbuntuホストにspark 2.0を構築しました。私は再ビルドスパーク2.0 pysparkを含むようにするために何をすべきspark 2.0をソースから正しく構築する方法、pysparkを組み込む方法はありますか?
Failed to find Spark jars directory (/home/ubuntu/spark/spark-2.0.0/assembly/target/scala-2.10/jars).
You need to build Spark with the target "package" before running this program.
:私はこのエラーを得た
bin/spark-submit --master spark://localhost:7077 examples/src/main/python/pi.py 1000
:私はpysparkのジョブを送信しようとしたとき すべてが、細かい仕上げが、 ?