私はSparkの新機能です。 DataFrameをPOJOのRDDに変換したい。 Like: JavaRDD<POJOClass> data = df.toJavaRDD();
ここで、dfはDataFrameです。 df.show()が与える次のように +---------+---------+---------+---------+
| A | B | C | D |
Apache Sparkのドキュメントに続いて、mapPartitionモジュールを試してみました。次のコードでは、関数内で最初のRDDを見ることが期待されました。myfunc値を出力した後にイテレータを返すだけです。しかし、RDDでcollectを実行すると、それは空です。 from pyspark import SparkConf
from pyspark import SparkConte