私は地理情報(聞いたことがある人のためのGeonameプロジェクト)で構成された非常に大きなテキストファイル(約850万行、1 GB)を持っています。現在私はBufferedReaderを使用しており、私のプログラムでは10000行を快適に読み込み、必要なデータを表示することができます。しかし、私はファイル全体の各行を読み込んで検索しなければならず、50000行以上をテストすると、プログラムは非常に遅くなり、基本的に役に立たなくなります。ファイルを分割して塊で読み込んで実行時間を短縮するためのオプションは何ですか?大きなテキストファイルをチャンクで読む処理
1
A
答えて
-1
java.nio.Bufferクラスとそのサブクラスについて読んでください。とりわけ、直腸および非直腸の緩衝液およびその使用の賛否両論に注意を払う。ダイレクトバッファは、ディスクへの直接アクセスと非常に大きなファイルをチャンクで処理する能力を提供します。しかし、この素晴らしい能力には、いくらかの価格とメモリリークのリスクが伴います。しかし、私はそれがあなたが必要とするかもしれないものだと思います。ここをクリックしてください:https://docs.oracle.com/javase/8/docs/api/java/nio/Buffer.html
関連する問題
- 1. PyTables大きなCSVをチャンクで読む:
- 2. 大きなテキストファイルの処理
- 3. 大きな1行のテキストファイルを読む
- 4. 大きなテキストファイルを読む方法 - Java
- 5. 大きなテキストファイルのn行を読む
- 6. 大きなテキストファイルの自動処理
- 7. 25GBの大きなテキストファイルの読み込みと処理
- 8. 大きなファイル(100GB)チャンクでメモリマッピングを使用してチャンクで読む
- 9. ファイルを読み込み、処理し、チャンクでファイルに書き込む
- 10. C#で大きなテキストファイルを処理する
- 11. 非常に大きなテキストファイルをレイジーテキストとバイトストリングで処理する
- 12. Androidで大きなテキストファイルを読むには?
- 13. Cプログラムで大きなテキストファイルとアルファベット順のクイックソートを読む
- 14. チャンクでint []チャンクを読む方法
- 15. 前処理された大きなテキストファイルの行を検索
- 16. Cppの大きなテキストファイル(> 50 GB)を処理する
- 17. 大きなテキストファイルをTextviewに読み込む
- 18. 大きなテキストファイルを読み込む代わりに - Swift
- 19. スパーク解析の前にFTPから大きなテキストファイルを読む
- 20. リッチテキストボックスに大きな(150MB)テキストファイルを読み込む
- 21. 大きなテキストファイル(数GB)を読むPythonの最速の方法
- 22. 大きなテキストファイルから1行を読む
- 23. 大きなファイルを読む
- 24. 巨大なテキストファイルの行を4のグループで読む
- 25. 処理大きな文書
- 26. Pythonで大きなテキストファイル(906.2MB)を反復処理する方法は?
- 27. チャンクでテキストファイルを分割して、すべてのチャンクを個々のスレッドで処理する方法
- 28. Pythonで行ごとに大きなzip形式のテキストファイルを読む
- 29. 大きなファイルをマルチスレッドで読む
- 30. Javaで大きなCSVファイルを読む
あなたはまだファイルを分割することは、すべての行を通過する必要がある場合に役立つと思いますか? 'BufferedReader'はすでに" chunking "(したがって' Buffered'という名前)をしています。もしあれば、一つのファイルではなくいくつかのファイルを操作しなければならないので、ファイルを分割するのが遅くなります。 – Kayaman
http://www.baeldung.com/java-read-lines-large-file – Fildor
私はKayamanが言ったことに同意します。 'BufferedReader'は既にチャンクを読み込みます。あなたは記憶上の問題にぶつかっているようです。利用可能なメモリ量を単純に増やしてみましたか?それでも問題が解決しない場合は、[mcve]を投稿してください。何が起きているのかがわかります。 –