私は大きなテキストファイル(〜7 GB)を持っています。大きなテキストファイルを読むための最速の方法が存在するかどうかを探しています。私はプロセスをスピードアップするためにチャンクごとに読んでいくつかのアプローチを使用することについて読んできました。例えばeffbotで大きなテキストファイル(数GB)を読むPythonの最速の方法
毎秒テキストの96900行を処理するために
# File: readline-example-3.py
file = open("sample.txt")
while 1:
lines = file.readlines(100000)
if not lines:
break
for line in lines:
pass # do something**strong text**
を示唆しています。 その他authorsが
from itertools import islice
with open(...) as f:
while True:
next_n_lines = list(islice(f, n))
if not next_n_lines:
break
# process next_n_lines
list(islice(f, n))
)(isliceを使用することをお勧めは、ファイルf
次のn
行のリストを返します。ループ内でこれを使用して、あなたにn
ライン
なぜあなたはチェックしません。何があなたのために最速ですか? – piokuc
ここに提案をお願いします:http://stackoverflow.com/questions/14863224/efficient-reading-of-800-gb-xml-file-in-python-2-7 – BenDundee
@Nix私は読んでいません行ごとに、チャンクでチャンク –