私はSpark 2.0.1でプレイを開始しています。新しいデータセットAPIは非常にきれいですが、私は非常に単純な操作で問題を抱えています。Spark 2.0.1 java.lang.NegativeArraySizeException
多分私は何かが不足している、誰かが助けることを願っています。
これらの命令
SparkConf conf = new SparkConf().setAppName("myapp").setMaster("local[*]");
SparkSession spark = SparkSession
.builder()
.config(conf)
.getOrCreate();
Dataset<Info> infos = spark.read().json("data.json").as(Encoders.bean(Info.class));
System.out.println(infos.rdd().count());
は
java.lang.NegativeArraySizeException
とJVM(1.8)によって検出された致命的なエラーを生成します。
データセットapiを使用してデータを処理する(つまり、選択すると、インフォオブジェクトにカウントされます)正常に動作します。
データセットとRDDを切り替えるにはどうすればよいですか?
ありがとうございました。問題は、spark.read()と他の命令はライブラリ呼び出しです。つまり、Info.classを除いて、カスタムコードなしでライブラリを使用したばかりです。 – besil
json、完全なエラースタックトレース、Infoモデルオブジェクトなどの詳細を貼り付けることができますか? –