1
私は通常私の.sbtファイルを含むとsbt package
でコンパイルします。 スパークアプリケーションをカスタムSparkでビルドするにはどうすればいいですか?
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.1.0"
が、私はそれが変更を見ていないので、もはや作品ので、上記のテストしたいソースをスパークするためにいくつかの変更を加えました。ローカルバージョンのSparkを使用してコンパイルするにはどうすればよいですか?
私は新しいメソッドを導入しない限り、これは機能します。 'DataFrameReader'にメソッド' schema2() 'を追加してください。 –
'schema2'を追加した後、どんな問題に直面しますか? 'build.sbt' /' pom.xml'の 'version'を変更してビルドします。 –