私はSparkの仕事の結果となる小さなデータセットを持っています。私はこのデータセットを仕事の終わりに便宜のためにデータフレームに変換することを考えていますが、スキーマを正しく定義するのには苦労しています。問題は最後のフィールド(topValues
)です。それはタプルのArrayBufferです - キーとカウント。Spark:スケーラでデータフレームスキーマをプログラム的に作成する
val innerSchema =
StructType(
Array(
StructField("value", StringType),
StructField("count", LongType)
)
)
val outputSchema =
StructType(
Array(
StructField("name", StringType, nullable=false),
StructField("index", IntegerType, nullable=false),
StructField("count", LongType, nullable=false),
StructField("empties", LongType, nullable=false),
StructField("nulls", LongType, nullable=false),
StructField("uniqueValues", LongType, nullable=false),
StructField("mean", DoubleType),
StructField("min", DoubleType),
StructField("max", DoubleType),
StructField("topValues", innerSchema)
)
)
val result = stats.columnStats.map{ c =>
Row(c._2.name, c._1, c._2.count, c._2.empties, c._2.nulls, c._2.uniqueValues, c._2.mean, c._2.min, c._2.max, c._2.topValues.topN)
}
val rdd = sc.parallelize(result.toSeq)
val outputDf = sqlContext.createDataFrame(rdd, outputSchema)
outputDf.show()
私は取得していますエラーがMatchErrorです:私はデバッグし、私のオブジェクトを検査scala.MatchError: ArrayBuffer((10,2), (20,3), (8,1)) (of class scala.collection.mutable.ArrayBuffer)
、私はこれ見ている:
rdd: ParallelCollectionRDD[2]
rdd.data: "ArrayBuffer" size = 2
rdd.data(0): [age,2,6,0,0,3,14.666666666666666,8.0,20.0,ArrayBuffer((10,2), (20,3), (8,1))]
rdd.data(1): [gender,3,6,0,0,2,0.0,0.0,0.0,ArrayBuffer((M,4), (F,2))]
私が「と私には思われます私のinnerSchemaにタプルのArrayBufferを正確に記述しましたが、Sparkはそれに同意しません。
どのようにスキーマを定義する必要がありますか?
例データまたは少なくとも正確なタイプの 'rdd'を提供すると便利です。 – zero323