2017-12-26 10 views
0

でインストールされています。スパークがインストールされていないintellijプロジェクトを使用してSparkをロードしています。データソース:com.databricks.spark.xmlの検索に失敗しました。パッケージはhttp://spark.apache.org/third-party-projects.html

val spark = SparkSession.builder().config(sparkConf).getOrCreate() 

はI`veは

sparkConf.set("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar") 
sparkConf.setExecutorEnv("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar") 
sparkConf.set("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar") 
sparkConf.setExecutorEnv("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar") 
sparkConf.setJars(Array("C:/.../spark-xml_2.11-0.4.1.jar" )) 

spark.sparkContext.addJar("C:/.../spark-xml_2.10-0.2.0.jar") 

とを使用することにより火花com.spark.databricks.xmlを追加しましたが、私は例外を取得spark.read.format ("com.databricks.spark.xml")を使用しようとすると、「失敗しました。データソース:com.databricks.spark.xmlを見つけてください。パッケージはhttp://spark.apache.org/third-party-projects.htmlで見つけてください。

これを修正するにはどうすればよいですか?私はスパークシェルを使用してジャーを追加することをお勧めしますが、私はスパークシェルを持っていません。スパークがインストールされていません...

答えて

0

maven/sbtを持つプロジェクトをお持ちの場合は、

<!-- https://mvnrepository.com/artifact/com.databricks/spark-xml --> 
<dependency> 
    <groupId>com.databricks</groupId> 
    <artifactId>spark-xml_2.11</artifactId> 
    <version>0.4.1</version> 
</dependency> 

参考:下記のように-xml依存https://mvnrepository.com/artifact/com.databricks/spark-xml_2.11/0.4.1

+0

はい、私は私のmavenでそれを持っています。私は、SparkContext自体にjarファイルを追加する必要があると思います。maven/sbtはプロジェクトに追加するだけです – fmish

関連する問題