sparkを使用して/ src/main/resourcesからorcファイルを読み込もうとする非常に簡単なアプリケーションがあります。私はこのエラーを取得しておいてください。enableHiveSupportがJavaのスパークコードでエラーをスローする
Unable to instantiate SparkSession with Hive support because Hive classes are not found.
ここで推奨されているように私は、依存関係に
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.0.0</version>
</dependency>
を追加しようとしている:Unable to instantiate SparkSession with Hive support because Hive classes are not found
しかし、関係なく、私が追加したものを、私はまだ、このエラーを取得していません。
NetBeans IDEを使用してローカルのWindowsマシンで実行しています。
私のコード:
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.*;
public class Main {
public static void main(String[] args) {
SparkSession spark = SparkSession
.builder()
.enableHiveSupport()
.appName("Java Spark SQL basic example")
.getOrCreate();
Dataset<Row> df = spark.read().orc("/src/main/resources/testdir");
spark.close();
}
}
NetBeans IDEをしばらくお待ちください( 'sbt package'など)と' spark-submit'を使ってパッケージをビルドできますか? SpekではなくNetbeans IDEの問題のように見えます。 –