に私はちょうど1.4から2.0をスパークにアップグレードして、私はに行くいくつかのクラスタをスピンアップするにはgithub.com/amplab/spark-ec2/tree/branch-2.0起動pyspark Ipythonのノートブックは、EC2
からEC2ディレクトリをダウンロード私のEC2のディレクトリとは、これらのコマンドを実行します。
./spark-ec2 -k <keypair> -i <key-file> -s <num-slaves> launch <cluster-name>
./spark-ec2 -k <keypair> -i <key-file> login <cluster-name>
私は私のクラスターを持っていると私は、マスターにログインしていますが、私はpysparkノートブックを起動する方法がわかりません。スパーク1.4で、私は、コマンド
IPYTHON_OPTS="notebook --ip=0.0.0.0" /root/spark/bin/pyspark --executor-memory 4G --driver-memory 4G &
を実行するだろうと私は起動して実行罰金が、スパーク2.0と私のノートPCを持っている何のビン/ pysparkディレクトリがありません。誰もこれで助けることができますか?
これは、PYSPARK_DRIVER_PYTHON = ipythonの行を追加する必要があることを意味しますか? エクスポートPYSPARK_DRIVER_PYTHON_OPTS = "ノートブック"を自分の.bash_profileに追加しますか? – jakko
短い答えはい、しかし私の編集した回答を参照してください。残りを無視して必要なものを取りなさい。 – user7351608