2016-03-31 16 views
3

私はSparkで遊んで始めましたが、私はすでに苦労しています。私はちょうどスパークのspark-1.6.1-bin-hadoop2.4をダウンロードしてPySparkシェル./bin/pysparkを開こうとしましたが、私は残念ながら、次のプロンプトが表示されました:Spark - エラー:メインクラスorg.apache.spark.launcher.Mainを見つけられませんでした。

Error: Could not find or load main class org.apache.spark.launcher.Main 

環境:

  • のUbuntu 14.04.4 64ビット
  • Javaバージョン「1.8。 0_77 "
  • Python 2.7.6
  • Spark 1.6.1 Hadoop 2.4以降のプレビルド

これを解決する手がかりはありますか?

それはHadoopの2.4用のスパーク1.2.0事前ビルドで正常に動作し、後で

答えて

0

は、Javaがマシン にインストールされているかどうかを確認し、libディレクトリの下のすべてのjarファイルを確認してくださいは

に取り組んでいます
関連する問題