2
私は何百万もの行を持つ100GBのcsvファイルを持っています。私は、パンダのデータフレームで一度に10,000行を読んで、それをチャンクのSQLサーバに書き込む必要があります。大きなcsvファイルを読み取っている間にpandasのメモリ問題を解決する方法
http://pandas-docs.github.io/pandas-docs-travis/io.html#iterating-through-files-chunk-by-chunkで提案されているように、chunksizeとiteartorを使用しましたが、多くの同様の質問がありましたが、まだメモリ不足が発生しています。
パンダのデータフレームに非常に大きなcsvファイルを繰り返し読み込むコードを提案できますか?
すごいです...これは私がに取り組んでされている問題のためのはるかにエレガントなソリューションであることが判明し
今かなりの時間!ありがとう! – Geet
@Geet、私が助けることができてうれしい... :)答えを受け入れてくれてありがとう! – MaxU