1
私はSpark SQL DataFrameに変換したRDDを持っています。私はこのような何かを探して終わるのUDFの列の変換の数、やりたい:などPySpark SQL:.withColumnコールの統合
を
df = df.withColumn("col1", udf1(df.col1))\
.withColumn("col2", udf2(df.col2))\
...
...
.withColumn("newcol", udf(df.oldcol1, df.oldcol2))\
.drop(df.oldcol1).drop(df.oldcol2)\
...
をこれを表現するために、より簡潔な方法(両方の繰り返しwithColumn
がありますされ、 drop
コール)?