2016-04-04 22 views
-1

私は、RやPythonを使用して分析を行うために必要な1.3 GBのtsvデータファイルを持っています。私のマシンには8 GBのRAMがあり、それはWindows 8を実行しています。私はRStudioやファイルを読んでアプリケーションを読み込むことができません。ファイルを読み込んで作業することをお勧めしますか?私はhadoopでAmazonに移動すべきですか?これは私のような大きなデータ問題です。RStudioで大容量ファイルを扱うことができません

+0

ファイル全体をメモリに読み込まない(たとえば、行ごとに読み込んで作業していない場合は、うまくいくはずです)。ローカルでmapreduceを行う方法もありますので、Hadoopクラスタが必要なのは、データのサイズが –

+0

であれば完全に不要です。しかし、私がRプログラムを書いているとき、それはファイル全体を処理するつもりです。だから、もし私がトップのkレコードを見ても、それは助けにならないでしょう。ローカルでmapreduceジョブを実行する方法についていくつかの情報を教えてください。 – Zack

+0

また、私はRまたはpythonのどちらかで作業する必要があります。 – Zack

答えて

0

Rで読み込み中に問題が発生しました。私はpython pandasを使用して読み込むことができ、8GB RAMのコンピュータで動作しているようです。

+1

解決策であることを示す方法でこれを書いていますが、あなたの質問にはすでに8GBがあるという。これがあなたの質問の補遺であれば、この答えを削除してあなたの質問に編集してください – Rob

+1

私はそれを "Rで動作させることができませんでしたが、私の8GBマシンでもPython Pandas " – Gimby

+0

@Gimbyフェア – Rob

関連する問題