2016-07-27 16 views
0

私はUbuntuでSparkをインストールしている間に以下の手順に従っており、エラーが発生しています。UbuntuでSparkをインストール中にエラーが発生しました

手順は続く:

  1. タールあるxvのスカラ-2.10.6.tgz
  2. それから私は、このフォルダを移動します。sudo mvはScalaの-2.10.6 /usr/local/scala-2.10
  3. geditの〜/ .bashrcの
  4. は、Path変数を追加します。= $ PATHに輸出PATH:スカラ座がでインストールされている場合は/ usr/local /スカラ座/ binに
  5. チェック:Scalaの-version
  6. 同じ手順はinstalli追跡しましたすぐに私はこれを実行する "火花シェルを" NGスパーク-1.6.2.tgz
  7. ソース〜/ .bashrcの
  8. 火花シェル

私はこのエラーに遭遇: LSを: /usr/local/spark/assembly/target/scala-2.10にアクセスできない:そのようなファイルやディレクトリはありません /usr/local/spark/assembly/target/scala-2.10にあるsparkアセンブリを見つけることができませんでした。 あなたが作成する必要があるspark

答えて

1

ステップ6では、spark-1.6.2のソースコードをダウンロードしていました。しかし、スパークのインストールのためには、事前に構築されたスパークパッケージが必要です。

ビルドしたスパークパッケージを入手するには、ダウンロードしたソースコードからビルドするか、事前にビルドしたスパークパッケージをspark-downloads pageからダウンロードする必要があります。このページでは、ステップ2がChoose a package type:と表示されます。ここでは、事前に構築されたスパークパッケージを選択する必要があります。

+0

ありがとうございました!しかし、これを追加したいのですが、これは#Sparkが最新のダウンロードtarを2.0.0に追加したことと、[パッケージタイプを選択:](http://spark.apache.org/downloads.html)に既にdeafultがあります"Hadoop 2.7およびそれ以降のためのプレビルド"として、それは私のために働いた。 – Sweta

+0

うわー、それはすばらしいニュースです:私はここ数ヶ月からそれを待っていました( '2.0.0')。知らせてくれてありがとうございます。 – avr

0

あなたのスパークアセンブリかもしれません。あなたのスパークを再構築し、再度確認してください。

関連する問題