0
CentOS 6.7でspark 1.4.1を実行しています。 python 2.7とpython 3.5.1の両方にanacondaをインストールしてください。ワーカーノードとマスターノードのPythonバージョンが異なる
はPYSPARK_PYTHONのENVのVARはpython3.5に設定されていることを確認しましたが、私は以下の例外を除いて、それエラーを簡単なRDD変換を行うpysparkシェルを開いて実行すると:
例外:Pythonのを作業員に異なるバージョン2.7以上を持っていますドライバ3.5では、PySparkは異なるマイナーバージョンでは実行できません
パスを変更する他の場所はなんですか?
素晴らしい。私のものは単一ノードのインストールであり、私は動作しなかったpysparkシェルを再起動するだけで試しました。 guidenaceに感謝します! – Abhi