私は最初のスパークアプリケーションを構築しています。スカラ/スパークバージョンの互換性
http://spark.apache.org/downloads.htmlは、Spark 2.xがScala 2.11に対して構築されていることを示しています。スパークサイト上で2.11が正確に何を意味する: - 私は2.11.0からバージョンを見ていScalaのサイトhttps://www.scala-lang.org/download/all.htmlで
だからここ2.11.11
は私の質問です。 2.11.0 - 2.11.11の範囲のScalaバージョンですか?
別の質問:最新のScala 2.12.2を使用してSparkアプリケーションをビルドすることはできますか?私はScalaが下位互換性があると仮定しているので、Scalaで構築されたSparkライブラリは、Scala 2.12.1アプリケーションで2.11.xを使用/呼び出しできると言っています。私は正しいですか?
Spark 2.0は、必要なモデルの保存と読み込み機能を備えた最初のバージョンであるため、少なくともSpark 2.0を使用したいと考えています。だからScalaのどのバージョンが必要ですか?これはどこで調べられますか? –
@PaulReiners Scala 2.11の最新バージョン2.1.1が配布されています。 Scala 2.12が必要な場合は、そのScalaバージョンのソースからsparkをビルドすることができます。 sparkのホームページには、スカラのバージョンがいくつかの最新のリリースについて記載されていますが、私は公式の互換性テーブルを見ていません。もちろん、パッケージ名を見ることはできますが、互換性のあるScalaバージョンをアーティファクトIDに追加するという標準的な規則に従います。 – puhlen