私の家のマシンにpyspark
をインストールしたかったのですが、私はしたpipインストール後にpysparkを実行するpyspark
両方がうまくいくように見えました。
しかし、私はpyspark
を実行しようとすると、私は
pyspark
Could not find valid SPARK_HOME while searching ['/home/user', '/home/user/.local/bin']
SPARK_HOME
に何を設定する必要があり得ますか?
私の家のマシンにpyspark
をインストールしたかったのですが、私はしたpipインストール後にpysparkを実行するpyspark
両方がうまくいくように見えました。
しかし、私はpyspark
を実行しようとすると、私は
pyspark
Could not find valid SPARK_HOME while searching ['/home/user', '/home/user/.local/bin']
SPARK_HOME
に何を設定する必要があり得ますか?
PyPiからのPyspark(すなわち、pip
と一緒にインストールされている)は完全なPyspark機能を含んでいません。既存のクラスタ内のSparkインストールでの使用のみを目的としています。 docs:
SparkのPythonパッケージは、他のすべてのユースケースを置き換えるものではありません。このPythonパッケージ版のSparkは、既存のクラスタ(Sparkスタンドアロン、YARN、またはMesos)と対話するのに適していますが、独自のスタンドアロンSparkクラスタをセットアップするのに必要なツールは含まれていません。 Sparkの完全版は、Apache Sparkのダウンロードページからダウンロードできます。
注:あなたはスパークスタンドアロンクラスタでこれを使用している場合は、 (マイナーバージョンを含む)のバージョンが一致していることを確認する必要がありますまたはあなたが 経験奇妙なエラー
あなたは完全なスパークをダウンロードする必要がありますことを記載されているような分布here。
ありがとうございます。スタンドアロンのLinuxボックスでpysparkを起動して最初から実行するための手順はありますか? – eleanora
@eleanoraあなたはちょうどダウンロード、解凍、 'SPARK_HOME'を設定します - ここで私の答えを見てください 'アップグレード' https://stackoverflow.com/questions/33887227/how-to-upgrade-spark-to-newer-version/33914992 #33914992、しかしウェブは文字通りそのようなステップバイステップのチュートリアルでいっぱいです... – desertnaut