JSONとCSVからスパークロードされた2つのレジスタテーブルで複数の選択を行います。 しかし、毎回ロードされる2つのファイルを選択するたびに、グローバルオブジェクトに一度ロードすることはできますか?大きなファイル(jsonまたはcsv)を一度にロードする方法
1
A
答えて
0
あなたはStorageLevel
import org.apache.spark.storage.StorageLevel
dataFrame.persist(StorageLevel.MEMORY_AND_DISK)
MEMORY_AND_DISK
としてチェックドキュメントでpersist()
を使用することができますhere
注:このオプションは、あなたには、いくつかの集計を行っている場合は、より有用である入力データセットのオン/形質転換のと次の変換を行う前に
+0
java.lang.OutOfMemoryError:Javaヒープ領域、データフレームを作成しようとしました。 – MohamedHuzien
関連する問題
- 1. 非常に大きなCSVデータセットをd3にロードする方法
- 2. 大きな.csvファイルを.tar.gzファイルからハイブテーブルにロード
- 3. 巨大なCSVファイルを一度にSQL ServerにPythonで挿入するには?
- 4. 大きなJSONファイルの値をCSVに変換する
- 5. テーブルにcsvファイルをロードする方法
- 6. 大きなクエリにxmlファイルをロードする方法
- 7. Google openrefineに大きなcsvファイルがロードされない
- 8. PHPは大きなCSVファイルの一部を読み取る
- 9. PHPを使用してテーブルmysqlに大きな.csvをロードする方法
- 10. UNIXのコマンドラインで大きなcsvファイルを分割する方法
- 11. 大規模なcsvファイルをリストまたはnumpy配列のPythonでロードする
- 12. neo4jの大きなcsvファイルからわずかなサンプルをロード
- 13. Systemjを使用した動的ロード、一度にすべてのファイルをロードしない方法は?
- 14. Python:大きな.csvファイルを読むには最適な方法ですか?
- 15. 大きなcsvファイルを反復する
- 16. 大きなcsvファイルをマージする
- 17. 大きなCSVファイルをループする
- 18. 大規模なJSONファイルをCSVに変換する
- 19. 大きなCSVファイルのDataTables
- 20. 大きなCSVファイルのヒートマップ
- 21. は、私はフォーマットの一つの大きなJSONファイルを持つ大規模なJSONファイルを解析し、パイソン
- 22. 大きなExcelファイルをCSVに変換
- 23. anglejsでより大きなcsvファイルを読む方法
- 24. PigからPandasにCSV/TSVファイルをロード/エクスポートする方法は?
- 25. bigmemoryパッケージを使用して混合型カラムを使用して大きなcsvファイルをロードする方法
- 26. 大きなJSONファイルをjavascriptに読み込む方法
- 27. spacy pipeline nlpにデータフレームまたはcsvファイルをロードするには?
- 28. 大きな弾性の検索インデックスに大きなjsonファイルの入力を分割する方法は?
- 29. 大きな.CSVファイルで行を分割してデータベースにインポートする方法
- 30. Pythonのパフォーマンスチューニング:JSONからCSV、大きなファイル
おそらく '.cache() 'を探しています – mtoto
cacを探しています彼() ??? – BDR
ファイルの1つが30Gで、もう1つが8Gです。ファイルがメモリに収まらない場合は、ファイルを再度読み込みます。 – MohamedHuzien