spark scala DataFrameには、(id、day、val、order)の4つの値があります。 (id、day、value_list:List(val1、val2、...、valn))ここで、val1からvalnは昇順の値で並べ替えられている新しいDataFrameを作成します。例えばSpark Scala:DataFrame列の値を順序リストに集約する
:
(50, 113, 1, 1),
(50, 113, 1, 3),
(50, 113, 2, 2),
(51, 114, 1, 2),
(51, 114, 2, 1),
(51, 113, 1, 1)
はなる:
((51,113),List(1))
((51,114),List(2, 1)
((50,113),List(1, 2, 1))
私は近いんだけど、私は、リストにデータを集計した後に何をすべきか分かりません。出力は次のようになり
import org.apache.spark.sql.Row
val testList = List((50, 113, 1, 1), (50, 113, 1, 3), (50, 113, 2, 2), (51, 114, 1, 2), (51, 114, 2, 1), (51, 113, 1, 1))
val testDF = sqlContext.sparkContext.parallelize(testList).toDF("id1", "id2", "val", "order")
val rDD1 = testDF.map{case Row(key1: Int, key2: Int, val1: Int, val2: Int) => ((key1, key2), List((val1, val2)))}
val rDD2 = rDD1.reduceByKey{case (x, y) => x ++ y}
:
((51,113),List((1,1)))
((51,114),List((1,2), (2,1)))
((50,113),List((1,3), (1,1), (2,2)))
は、次のステップを生成するために次のようになります。
私はその後、注文int型によってそれぞれの値のリストスパーク順序を持っているかどうかはわかりません((51,113),List((1,1)))
((51,114),List((2,1), (1,2)))
((50,113),List((1,1), (2,2), (1,3)))