2016-05-06 22 views
0

明らかに、UBUNTU(VMWAREワークステーション)にSPARKをインストールしました。以下は私のPCの仕様です。spark-submitはPythonプログラムで動作しますが、pysparkは機能しません。

Windows Dellノートパソコン(Windows 10を実行中)。

は、VMware PRO 12をインストールし、その上でUbuntuの15をロードしました。 標準のスクリプトを使用して、SPARK 1.6.1/JAVA 1.7/Python 2.7およびSCALA 2.11.8をインストールしました。

私は火花submitコマンドを使用して、サンプルプログラムを実行し、それが正常に完了します。しかし、私がpysparkシェルにログインしようとすると、エラーメッセージ "pyspark:command not found"が表示されます。

何が問題なのでしょうか。 sparkのbinディレクトリにあるすべてのファイルを見ることができます(pysparkとspark-submitの両方)。

よろしく VVSAUCSE

答えて

0

これは、それがどのように動作するか、コマンド名との完全なパスが正常に動作している場合はわかりません。私が以前に気づかなかったか、それを試して謝ったことに対して謝罪します。

/SparkPath/bin/pysparkは、pysparkではなく正常に動作します。

関連する問題