2016-11-14 5 views
0

私はスパークするのが初めてです。スパーク・アプリケーションがスパーク・コア・ジャー2.0.1でビルドに失敗しています

コンパイルグループ: 'org.apache.spark'、名前: 'spark-core_2.10'、バージョン: '2.0.1' コンパイルグループをコンパイルするときに、 : 'org.apache.spark'、名前: 'spark-sql_2.10'、バージョン: '2.0.1'

エラー: エラー:オブジェクトUserDefinedFunctionがパッケージorgのメンバーではありません。 apache.spark.sql

[ant:scalac] import org.apache.spark.sql.UserDefinedFunction._ 
[ant:scalac]       ^
[ant:scalac] error: bad symbolic reference. A signature in HiveContext.class refers to type Logging 
[ant:scalac] in package org.apache.spark which is not available. 

私はGradleのビルドにjarファイル1.6を使用する場合、同じコードが完全に構築されている間:

compile group: 'org.apache.spark', name: 'spark-core_2.10', version: '1.6.0' 
    compile group: 'org.apache.spark', name: 'spark-sql_2.10', version: '1.6.0' 

jar 2.0.1を抽出し、UserDefinedFunction関数が利用できないことが判明しましたが、1.6で利用可能です。

アドバイスをしてください。この問題を解決し、コードベースをjar 2.0.1にアップグレードするにはどうすればよいですか?

ありがとうございました。

答えて

関連する問題