私は、RやPythonを使用して分析を行うために必要な1.3 GBのtsvデータファイルを持っています。私のマシンには8 GBのRAMがあり、それはWindows 8を実行しています。私はRStudioやファイルを読んでアプリケーションを読み込むことができません。ファイルを読み込んで作業することをお勧めしますか?私はhadoopでAmazonに移動すべきですか?これは私のような大きなデータ問題です。RStudioで大容量ファイルを扱うことができません
-1
A
答えて
0
関連する問題
- 1. キャッシュストリーミング大容量ファイルを扱う
- 2. Android EditTextで大きなファイルを扱うことができません
- 3. C#で大容量のファイルを扱うHttpListener
- 4. 大容量の大容量ファイル
- 5. 大容量ドライブ上のSQL Serverの空き容量がありません
- 6. MySQLは大量のデータを扱うことができますか?
- 7. GHCは大きなルックアップテーブルを扱うことができません
- 8. どうすれば大容量ファイルをアップロードできますか
- 9. Pythonでセレンを扱うことができません
- 10. カーネルモジュールでヌルポインタを扱うことができません
- 11. MySQLクエリで変数を扱うことができません
- 12. 大容量のデータセットを扱うときにQSortFilterProxyModelフィルタリングを高速化する
- 13. pandasデータフレームのNaNを扱うことができません
- 14. Math.Pow負の値を扱うことができません
- 15. numpyで扱うことができるデータの量
- 16. はgolangの静的なhtmlファイルを扱うことができません
- 17. 私はcssファイルを扱うことができませんASP MVC
- 18. python - bottle + geventは静的ファイルを扱うことができません
- 19. JavaScriptで大量の数値を扱う
- 20. 大量のデータを扱う
- 21. 大容量/低速接続での大容量ファイルのアップロード方法
- 22. 大量のデータを扱うWebSocketとXHR
- 23. okhttp3大容量ファイルのOutOfMemoryError
- 24. Railsは大容量のファイル
- 25. 大量の仮想メモリを割り当てることができません
- 26. 大容量ファイルとハッシュ - パフォーマンスの懸念
- 27. r言語で50GBの大容量CSVファイルを扱うにはどうすればいいですか?
- 28. 4GとiOS10の大容量ファイルでNSURLSessionDelegateが失敗する
- 29. Androidで大きなXMLファイルを扱う
- 30. 大きなファイルをアップロードすることはできません
ファイル全体をメモリに読み込まない(たとえば、行ごとに読み込んで作業していない場合は、うまくいくはずです)。ローカルでmapreduceを行う方法もありますので、Hadoopクラスタが必要なのは、データのサイズが –
であれば完全に不要です。しかし、私がRプログラムを書いているとき、それはファイル全体を処理するつもりです。だから、もし私がトップのkレコードを見ても、それは助けにならないでしょう。ローカルでmapreduceジョブを実行する方法についていくつかの情報を教えてください。 – Zack
また、私はRまたはpythonのどちらかで作業する必要があります。 – Zack