2016-07-27 5 views
3

私は "sbt assembly"を使ってUbuntuホストにspark 2.0を構築しました。私は再ビルドスパーク2.0 pysparkを含むようにするために何をすべきspark 2.0をソースから正しく構築する方法、pysparkを組み込む方法はありますか?

Failed to find Spark jars directory (/home/ubuntu/spark/spark-2.0.0/assembly/target/scala-2.10/jars). 
You need to build Spark with the target "package" before running this program. 

:私はこのエラーを得た

bin/spark-submit --master spark://localhost:7077 examples/src/main/python/pi.py 1000 

:私はpysparkのジョブを送信しようとしたとき すべてが、細かい仕上げが、 ?

答えて

6

試してみてください。

  1. Install sbt

  2. ビルド:

    https://github.com/apache/spark.git 
    cd spark 
    git checkout v2.0.0 
    sbt package 
    
関連する問題