でインストールされています。スパークがインストールされていないintellijプロジェクトを使用してSparkをロードしています。データソース:com.databricks.spark.xmlの検索に失敗しました。パッケージはhttp://spark.apache.org/third-party-projects.html
val spark = SparkSession.builder().config(sparkConf).getOrCreate()
はI`veは
sparkConf.set("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setExecutorEnv("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.set("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setExecutorEnv("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setJars(Array("C:/.../spark-xml_2.11-0.4.1.jar" ))
と
spark.sparkContext.addJar("C:/.../spark-xml_2.10-0.2.0.jar")
とを使用することにより火花com.spark.databricks.xmlを追加しましたが、私は例外を取得spark.read.format ("com.databricks.spark.xml")
を使用しようとすると、「失敗しました。データソース:com.databricks.spark.xmlを見つけてください。パッケージはhttp://spark.apache.org/third-party-projects.htmlで見つけてください。
これを修正するにはどうすればよいですか?私はスパークシェルを使用してジャーを追加することをお勧めしますが、私はスパークシェルを持っていません。スパークがインストールされていません...
はい、私は私のmavenでそれを持っています。私は、SparkContext自体にjarファイルを追加する必要があると思います。maven/sbtはプロジェクトに追加するだけです – fmish