私はrddにキーの値のペアを含んでいます。ちょうど3つのキーがあり、私はテキストファイルに与えられたキーのすべての要素を書きたいと思います。現在、私は3回のパスでこれをやっていますが、私は1回のパスでそれを行うことができるかどうかを見たいと思っていました。PySparkの複数のファイルにRDDを書き込む
# I have an rdd (called my_rdd) such that a record is a key value pair, e.g.:
# ('data_set_1','value1,value2,value3,...,value100')
my_rdd.cache()
my_keys = ['data_set_1','data_set_2','data_set_3']
for key in my_keys:
my_rdd.filter(lambda l: l[0] == key).map(lambda l: l[1]).saveAsTextFile(my_path+'/'+key)
この作品は、しかし、それをキャッシュし、長いプロセスになることが3回を反復処理:ここで
は、私がこれまで持っているものです。 3つのファイルを同時に書き込む方法があるのだろうか?
このため問題がありますに:https://issues.apache.org/jira/browse/SPARK-3533。回避策はここに掲載されています:http://stackoverflow.com/questions/23995040/write-to-multiple-outputs-by-key-spark-one-spark-job –