Apache spark 2.0をPython(pyspark)を使ってアクセスするUbuntu(16.04)ローカルマシンにインストールするための簡単なステップバイステップガイドです。私は彼らのほとんどが1つまたは他のエラーで終わるウェブを検索しようとしました。Apache sparkをpyspark用にubuntuにインストールする
は
-1
A
答えて
1
礼儀:私はいくつかの手順は、だからここ
(少なくともUbuntuの16.04のため)予想より異なっている見たように、私はここに私の手順を書いていますhttps://www.santoshsrinivas.com/installing-apache-spark-on-ubuntu-16-04/
手順です
ステップ1:
http://spark.apache.org/downloads.html
ステップ2から最新事前に構築されたバージョンのダウンロード:を解凍して移動スパーク
cd ~/Downloads/
tar xzvf spark-2.0.1-bin-hadoop2.7.tgz
mv spark-2.0.1-bin-hadoop2.7/ spark
sudo mv spark/ /usr/lib/
ステップ3: SBT
をインストールecho "deb https://dl.bintray.com/sbt/debian /" | sudo tee -a /etc/apt/sources.list.d/sbt.list
sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv 2EE0EA64E40A89B84B2DF73499E82A75642AC823
sudo apt-get update
sudo apt-get install sbt
注: - この手順でいくつかの問題がある可能性があります。最後に提供されているリンクを参照してください。
手順4: Javaがインストールされていることを確認してください。そうでない場合は
sudo apt-add-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer
ステップ5: 設定スパーク
cd /usr/lib/spark/conf/
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
と
JAVA_HOME=/usr/lib/jvm/java-8-oracle
SPARK_WORKER_MEMORY=4g
ステップ6次の行を追加します。 のconfigure bashのファイルを。 :
のbashrcファイルに以下のコピー
vi ~/.bashrc(if you want to use vi editor)
subl ~/.basrc(if you want to use sublime)
コマンドの下に使用してbashrcにファイルを開く
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export SBT_HOME=/usr/share/sbt-launcher-packaging/bin/sbt-launch.jar
export SPARK_HOME=/usr/lib/spark
export PATH=$PATH:$JAVA_HOME/bin
export PATH=$PATH:$SBT_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin
は、コマンドの下に
source ~/.bashrc
ステップ7を使用して、bashのファイルを開始
今すぐお試しください
pyspark
注:は、SBTのインストール(Ubuntuの16.04のための通常の場合)で動けなくなる場合には、この質問は広すぎる
https://askubuntu.com/questions/771839/problem-installing-package-git-all/771889#771889
関連する問題
- 1. Spark、UbuntuのPysparkの問題
- 2. Apache Spark JDBC SQLインジェクション(pyspark)
- 3. ubuntu-16.04にapacheをインストールするには?
- 4. ubuntuでsparkをインストール
- 5. Ubuntu LinuxにApache Zeppelinバイナリをインストールする
- 6. Pysparkにseabornをインストールする
- 7. MacBookにpysparkをインストールする
- 8. Apache Spark 2.0.0 PySparkマニュアルデータフレーム作成ヘッドスクラッチャー
- 9. DCOSにapache sparkをインストールできない
- 10. Apache Tomcat7をUbuntu 12.04に再インストール
- 11. yumを使用してApache Sparkをインストールする
- 12. CSVで読むときにApache Spark(PySpark)がnull値を処理する
- 13. Windows 7でApache Spark(Eclipse/Java)をインストールして使用する
- 14. Apache Spark History serverをmacOSにインストールする方法
- 15. SubversionをUbuntuにインストールすると、ApacheではなくNGINXがインストールされます。
- 16. Apache Spark/PySparkにCosine距離のあるKmeansの実装はありますか?
- 17. Spark - PySpark sqlエラー
- 18. Apache-spark - Windowsでpysparkを起動できませんでした。
- 19. UbuntuでSparkをインストール中にエラーが発生しました
- 20. Apache2(Ubuntu 16)にPHP5モジュールをインストールする
- 21. Sparkに.jarをインストールする
- 22. UbuntuにEmscriptenをインストールする
- 23. ubuntuにpyintervalをインストールする
- 24. UbuntuにLibHXをインストールする
- 25. Ubuntuにcapistranoをインストールする
- 26. デュアルブートシステムにubuntuをインストールする
- 27. ubuntuにpyqtgraphをインストールする
- 28. ubuntuにpygameをインストールする
- 29. ubuntuにオクターブパッケージをインストールする
- 30. ubuntuにimutilsをインストールする
下のリンクを試してみてください。代わりに、試した方法と遭遇したエラーを記載してください。 – timchap
私はそれをこのように置いておきましょう.pubpuのためにubuntu 16のためにapache sparkをインストールするためのステップがあるスタックオーバーフローのリンクを共有してください。 – braj259
https://askubuntu.com/ – Mel