0
SparkのHBase ColumnRangeFilterの使用方法を検討しています。
私はorg.apache.hadoop.hbase.mapreduce.TableInputFormatを見ていますが、このAPIにはColumnRangeFilterは含まれていません。
私はSparkでColumnRangeFilterを実行する方法がわかりません。SpaseのHBase ColumnRangeFilterの使用方法
"20170225"で始まり、 "20170305"で終わるColumnRangeFilterを使用したいとします。
コードの下にある行をスキャンします。
val conf = HBaseConfiguration.create()
conf.set(TableInputFormat.INPUT_TABLE, "like_count")
val startRow = "001"
val endRow = "100"
conf.set(TableInputFormat.SCAN_ROW_START, startRow)
conf.set(TableInputFormat.SCAN_ROW_STOP, endRow)
sc.newAPIHadoopRDD(conf, classOf[TableInputFormat], classOf[ImmutableBytesWritable], classOf[Result])
どのようなコードを追加する必要がありますか? 誰かが助言を持っているなら、plsはそれについて教えてくれます。