2
df.groupBy("col1", "col2", "col3")
のグループ[String]またはSeq [String]をgroupByに渡すと完全に正常に動作します。spark
しかし、私は次の操作を実行しよう:
val dimensions = Seq("col1", "col2", "col3")
df.groupBy(dimensions)
私はこのエラーを取得しています:あなたは解凍しなければならないので、引数リストが可変引数を示した後
<console>:38: error: overloaded method value groupBy with alternatives:
(col1: String,cols: String*)org.apache.spark.sql.GroupedData <and>
(cols: org.apache.spark.sql.Column*)org.apache.spark.sql.GroupedData
cannot be applied to (Seq[String])
に最後のオプション 'df.groupBy(寸法マップCOLに一致するように
(col1: String,cols: String*)
、またはに一致するように
:_ *) 'はとても役に立ちます - ありがとう!私はすでに「頭」と「テイル」のトリックを数回見ましたが、これは私にとって初めてのものです。 – MaxU