pandas'
to_csv
機能を使用してcsv
ファイルを書きました。私はディスク上のこのファイルのサイズが13ギガバイトであることがわかります。このファイルをpandas
dataframe
pd.read_csv
を使って読みたいと思います。このファイルを読み込んでいる間、私はサーバーのメモリ使用量を監視します。このファイルの読み込みに消費されるメモリは30GB +で、ファイルは決して読み込まれないことがわかります。私のjupyter notebook
のカーネルが消滅し、もう一度プロセスを開始しなければなりません。メモリとディスクの異なるファイルサイズ
私の質問は、なぜこのような現象が起こっているのですか?ファイルの書き込みと読み込みは非常にシンプルなコードなので、スペース要件が異なるのはなぜですか?最後に、このファイルをどのように読むのですか?
可能な重複pandas](https://stackoverflow.com/questions/25962114/how-to-read-a-6-gb-csv-file-with-pandas) – DarkCygnus