sparkのMapPartitionFunctionでhbase接続を作成しようとしています。sparkでhadoop設定を使用してHbaseに接続
Caused by: java.io.NotSerializableException: org.apache.hadoop.conf.Configuration
私はデータセットを作成し、HBaseのへの接続を作成するために、hbaseConfを渡すsparkSessionを使用しています次のコード
SparkConf conf = new SparkConf()
.setAppName("EnterPrise Risk Score")
.setMaster("local");
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
conf.set("spark.kryo.registrationRequired", "true");
conf.registerKryoClasses(new Class<?>[] {
Class.forName("org.apache.hadoop.conf.Configuration"),
Class.forName("org.apache.hadoop.hbase.client.Table"),
Class.forName("com.databricks.spark.avro.DefaultSource$SerializableConfiguration")});
SparkSession sparkSession = SparkSession.builder().config(conf)
.getOrCreate();
Configuration hbaseConf= HBaseConfiguration
.create(hadoopConf);
を試してみました。
hbaseに接続する方法はありますか?
:あなたはこのように右のそれの内部の構成を作成しないのはなぜ
を'org.apache.hadoop.conf.Configuration'クラスはシリアライズ可能ではなく、' KryoSerializer 'に登録しようとしています。 –
質問を詳しく説明できますか? 'sparkonhbase'を試しましたか? –
を参照してください[how-to-ask](http://stackoverflow.com/help/how-to-ask) –