DataFrame
オブジェクトは小さいです。ただし、Sparkエグゼキュータのキャッシュ内のデータを参照でき、Sparkエグゼキュータのシャッフルファイルを参照できます。 DataFrame
がガーベッジ・コレクションされると、キャッシュとシャッフル・ファイルがエグゼキュータで削除されます。
コードには、ループを過ぎたDataFramesへの参照はありません。彼らは適格ガベージコレクションです。ガベージコレクションは、通常、メモリの負荷に応じて発生します。ディスクをいっぱいにするシャッフルファイルが心配な場合は、明示的なGCをトリガーして、もはや参照されていないDataFramesのシャッフルファイルが削除されていることを確認することができます。
DataFrame([stuff happens]
)の処理内容によっては、データがメモリに保存されないことがあります。これはSparkのデフォルト動作モードです。データを読み込み、変換して書き出したいだけなら、それはすべて行単位で行われ、決してメモリに格納されません。 (キャッシングは、明示的に要求したときにのみ発生します)。
これらのことをすべて考慮すると、問題が発生するまでメモリ管理について心配する必要はありません。
ありがとう、非常に有益な答え! –
dfでの線形変換のプロセスを考えると、df1 = df0.bla(); df2 = df1.blabla(); df3 = df2.blablabla()、df1はいつガベージされますか?スコープが終了したとき、またはプログラムがそれを認識したときには、それ以上回線を使用しません(基本的にdf2が作成されると、df1はそれ以上コールされません)。 –
子孫のRDD( 'df2'のようなもの)は親(' df1'のもの)を参照しています。だから、 'df1'は範囲外になったときにのみ収集され、その子孫のすべてはガベージコレクションされます。これは、RDDが遅延しているためです。 「df1」の命令(例えば、「このファイルを読む」)は、アクション(例えば、「ラインをカウントする」)が実行された場合にのみ直ちに実行されることはない。そのため、リファレンスは先祖のRDDに保持されなければなりません。 –