2016-10-21 6 views
1

私はDSE スパークジョブサーバを使用しています。Spark Job ServerのJavaプログラムがscala.MatchErrorをスローします

私がJavaで作成したスパークジョブは、cassandra dbからいくつかのデータをフェッチすることが予想され、これはDSE Analyticsクラスタにデプロイされます。

コードを次のように

package com.symantec.nsp.analytics; 

import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions; 
import static com.datastax.spark.connector.japi.CassandraJavaUtil.mapRowTo; 

import java.io.Serializable; 
import java.util.List; 
import java.util.UUID; 

import org.apache.commons.lang.StringUtils; 
import org.apache.spark.SparkContext; 
import org.apache.spark.api.java.JavaSparkContext; 

import spark.jobserver.JavaSparkJob; 
import spark.jobserver.SparkJobInvalid; 
import spark.jobserver.SparkJobValid$; 
import spark.jobserver.SparkJobValidation; 

import com.symantec.nsp.analytics.model.Bucket; 
import com.typesafe.config.Config; 

public class JavaSparkJobBasicQuery extends JavaSparkJob { 

    public String runJob(JavaSparkContext jsc, Config config) { 
     try { 
      List<UUID> bucketRecords = javaFunctions(jsc).cassandraTable("nsp_storage", "bucket", mapRowTo(Bucket.class)) 
        .select("id", "deleted").filter(s -> s.getDeleted()).map(s -> s.getId()).collect(); 

      System.out.println(">>>>>>>> Total Buckets getting scanned by Spark :" + bucketRecords.size()); 
      return bucketRecords.toString(); 
     } catch (Exception e) { 
      e.printStackTrace(); 
      return null; 
     } 
    } 

    public SparkJobValidation validate(SparkContext sc, Config config) { 
     return null; 
    } 

    public String invalidate(JavaSparkContext jsc, Config config) { 
     return null; 
    } 
} 

問題:

をこのコードを行使している間、私は以下の問題を取得しています:

"status": "ERROR", 
    "result": 
    "message": "null", 
    "errorClass": "scala.MatchError", 
    "stack": ["spark.jobserver.JobManagerActor$$anonfun$spark$jobserver$JobManagerActor$$getJobFuture$4.apply(JobManagerActor.scala:244)", "scala.concurrent.impl.Future$PromiseCompletingRunnable.liftedTree1$1(Future.scala:24)", "scala.concurrent.impl.Future$PromiseCompletingRunnable.run(Future.scala:24)", "java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)", "java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)", "java.lang.Thread.run(Thread.java:745)"] 

ことがある問題を解決する誰か。 注:/tmpフォルダを複数回クリーニングしようとしました。この問題を解決することはできません。私が使っているDSEのバージョンは4.8.10です。

答えて

0

例外でnullを返すことを望んでいないかどうかはわかりません。私は伝播するためにそれを残すだろう。

0

null文を削除しようとしました。それでも問題は解決しません。私は実際のJavaスパークの仕事のサンプルを見ることはありませんが、それはcassandraテーブルをスキャンします。このジョブの構造(runJobのオーバーライドなど)とそのようなものが正しいかどうかを確認できる人もいます。 cassandra db table scanを扱うJava sparkジョブサンプルがいくつかある場合、それが役に立ちます。

関連する問題