私はRで比較的新しくて貧弱で、問題を引き起こしているようなことをしようとしています。R - 新しいファイルを作成するとあまりにも多くのメモリを消費する
私は1 spatialpolygonsdataframeに結合しようとしているいくつかの大きなspatialpolygonsdataframesを持っています。 7つあり、合計で約5 GBになります。私のMacは8GBのRAMしか持っていません。
集合体spatialpolygonsdataframeを作成しようとすると、Rは実行に非常に時間がかかり、終了する必要があります。私はそれが十分なRAMがないためだと推測します。
私のコードは単純です:集約< -rbind(file1、file2、....)。これを行うにはもっとスマートな方法がありますか?
ありがとうございます。
'fread'でファイルを読み込み、' rbindlist'でそれらをバインドする 'data.table'と考えるかもしれません。 – Pasqui
rbindの実行時にチェックすることでRAMの制約であることを確認できますか? https://support.apple.com/en-gb/HT201538私の経験から、Rは大きなシェープファイルのメモリ管理にはかなり悪いです。 –