0
私は、homebrewを使ってscalaとapache-sparkをインストールし、scala 2.12.4とapache-spark 2.2.0をインストールしました。ただし、spark-shell -version
をチェックアウトすると、別のスカラバージョンが使用されます。Spark-shellは異なるバージョンのScalaを使用します。使用してhomebrewをscalaとapache-sparkの両方をインストールする
どのようにインストールさScalaのバージョンを使用するように火花シェルを設定するのですか?自作のインストール中にapache-sparkが使うスカラーのバージョンを設定する方法はありますか?