私はスパークするのが初めてです。スパーク・アプリケーションがスパーク・コア・ジャー2.0.1でビルドに失敗しています
コンパイルグループ: 'org.apache.spark'、名前: 'spark-core_2.10'、バージョン: '2.0.1' コンパイルグループをコンパイルするときに、 : 'org.apache.spark'、名前: 'spark-sql_2.10'、バージョン: '2.0.1'
エラー: エラー:オブジェクトUserDefinedFunctionがパッケージorgのメンバーではありません。 apache.spark.sql
[ant:scalac] import org.apache.spark.sql.UserDefinedFunction._
[ant:scalac] ^
[ant:scalac] error: bad symbolic reference. A signature in HiveContext.class refers to type Logging
[ant:scalac] in package org.apache.spark which is not available.
私はGradleのビルドにjarファイル1.6を使用する場合、同じコードが完全に構築されている間:
compile group: 'org.apache.spark', name: 'spark-core_2.10', version: '1.6.0'
compile group: 'org.apache.spark', name: 'spark-sql_2.10', version: '1.6.0'
jar 2.0.1を抽出し、UserDefinedFunction関数が利用できないことが判明しましたが、1.6で利用可能です。
アドバイスをしてください。この問題を解決し、コードベースをjar 2.0.1にアップグレードするにはどうすればよいですか?
ありがとうございました。