「Apache Spark in 24 Hours」の指示に従ってMacにsparkをインストールしました。私はスパークディレクトリにいるとき、私はコマンドを使用してpysparkを実行することができています:Apache Sparkのインストール後、Macの任意のディレクトリからpysparkコマンドを実行できません
./bin/pyspark
を火花をインストールするには、私はENV変数を作成:
export SPARK_HOME=/opt/spark
は、PATHにそれを追加しました:
export PATH=$SPARK_HOME/bin:$PATH
本は、私が「pyspark」または任意のディレクトリから「スパーク・シェル」コマンドを実行することができるはずと言うが、それは動作しません:
pyspark: command not found
私はここで他の人が尋ねた同様の質問の指示に従っ:
私はJAVA_HOMEのENV変数を設定します。
export JAVA_HOME=$(/usr/libexec/java_home)
私はまた、次のコマンドを実行しました:
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH
私はこれが出力であるenvコマンドを実行します:
SPARK_HOME=/opt/spark
TERM_PROGRAM=Apple_Terminal
SHELL=/bin/bash
TERM=xterm-256color
TMPDIR=/var/folders/hq/z0wh5c357cbgp1dh33lfhjj40000gn/T/
Apple_PubSub_Socket_Render=/private/tmp/com.apple.launchd.fJdtLqZ7dN/Render
TERM_PROGRAM_VERSION=361.1
TERM_SESSION_ID=A8BD2144-72AD-402C-A591-5C8A43DD398B
USER=richardgray
SSH_AUTH_SOCK=/private/tmp/com.apple.launchd.cQeqaF2v1z/Listeners
__CF_USER_TEXT_ENCODING=0x1F5:0x0:0x0
PATH=/opt/spark/bin:/Library/Frameworks/Python.framework/Versions/3.5/bin: /Library/Frameworks/Python.framework/Versions/3.5/bin:/Library/Frameworks/Python.framework/Versions/2.7/bin:/usr/local/heroku/bin:/Users/richardgray/.rbenv/shims:/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin:/usr/local/bin:/usr/X11/bin
PWD=/Users/richardgray
JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_25.jdk/Contents/Home
LANG=en_GB.UTF-8
XPC_FLAGS=0x0
XPC_SERVICE_NAME=0
SHLVL=1
HOME=/Users/richardgray
PYTHONPATH=/opt/spark/python/lib/py4j-0.9-src.zip:/opt/spark/python/:
LOGNAME=richardgray
_=/usr/bin/env
私には何かがありますか?前もって感謝します。
'lsのは/ opt /火花/ bin'を設定して、あなただけの –
表示されます/スパーク: –