2017-10-24 6 views
0

私は、homebrewを使ってscalaとapache-sparkをインストールし、scala 2.12.4とapache-spark 2.2.0をインストールしました。ただし、spark-shell -versionをチェックアウトすると、別のスカラバージョンが使用されます。Spark-shellは異なるバージョンのScalaを使用します。使用してhomebrewをscalaとapache-sparkの両方をインストールする

version mismatch scala and spark-shell

どのようにインストールさScalaのバージョンを使用するように火花シェルを設定するのですか?自作のインストール中にapache-sparkが使うスカラーのバージョンを設定する方法はありますか?

答えて

1

TL; DRできません。

2つの問題:

  • スパーク(スパークし、実際に特有の問題ではありません)、それをコンパイルするために使用されているScalaのバージョンを使用します。マシンにインストールされているScalaコンパイルのバージョンはまったく関係ありません。
  • SparkはScala 2.12をまだサポートしていないため、再コンパイルはオプションではありません。
関連する問題