0
私はSparkを初めて使用しています。pyspark RDD to DataFrame
(326033430, [Row(userid=326033430, poiid=u'114233866', _mt_datetime=u'2017-06-01 14:54:48', outmoney=1127.0, partner=2, paytype=u'157', locationcity=u'\u6f4d\u574a', locationprovince=u'\u5c71\u4e1c\u7701', location=None, dt=u'20170601')])
326033430
は大きなグループである:それは次のような構造でRDDを与える
は、私がデータフレームを持っていると私は、「ユーザーID」
def test_groupby(df):
return list(df)
high_volumn = self.df.filter(self.df.outmoney >= 1000).rdd.groupBy(
lambda row: row.userid).mapValues(test_groupby)
によってグループそれには、次のコマンドを使用していました。
私の質問は、このRDDをDataFrame構造に戻すにはどうすればいいですか?私がそれを行えない場合、私は行の用語からどのように値を得ることができますか?
ありがとうございます。
なぜgroupbyの前にrddに変換しましたか?あなたはrddに変換せずにそれを行うことができ、あなたは新しいデータフレームを返すでしょう。 –