2016-07-13 12 views
-1

私はHIPIを使ってスパークの画像を処理したいので、hadoopfileを使用してRDDを作成します。Scalaエラー:タイプ引数

val conf = new SparkConf().setAppName("BundleTest") 
val sc = new SparkContext(conf) 
val bundle0 = sc.hadoopFile[HipiImageHeader,FloatImage,HibInputFormat]("hdfs://192.168.199.11:8020/Hdfs/Image/image.hib.dat",1000) 

しかし、私はそれを間違えます。

Error:(39, 22) type arguments [org.hipi.image.HipiImageHeader,org.hipi.image.FloatImage,org.hipi.imagebundle.mapreduce.HibInputFormat] conform to the bounds of none of the overloaded alternatives of value hadoopFile: [K, V, F <: org.apache.hadoop.mapred.InputFormat[K,V]](path: String)(implicit km: scala.reflect.ClassTag[K], implicit vm: scala.reflect.ClassTag[V], implicit fm: scala.reflect.ClassTag[F])org.apache.spark.rdd.RDD[(K, V)] <and> [K, V, F <: org.apache.hadoop.mapred.InputFormat[K,V]](path: String, minPartitions: Int)(implicit km: scala.reflect.ClassTag[K], implicit vm: scala.reflect.ClassTag[V], implicit fm: scala.reflect.ClassTag[F])org.apache.spark.rdd.RDD[(K, V)] 
val bundle0 = sc.hadoopFile[HipiImageHeader,FloatImage,HibInputFormat]("hdfs://192.168.199.11:8020/Hdfs/Image/image.hib",1000) 
       ^

このエラーを解決するためのアドバイスをしてください。お手数です。

答えて

1

HibInputFormatFileInputFormat[HipiImageHeader,HipiImage]ではなく、FileInputFormat[HipiImageHeader,FloatImage]です。だからhadoopFile[HipiImageHeader,HipiImage,HibInputFormat]はうまくいくはずです。

+0

お手数をおかけしていただきありがとうございます。私は試してみましたが、うまくいきません。 –

関連する問題