私は500万行のcsvファイルを持っています。 ファイルをユーザーが指定した数の行に分割します。大きなcsvファイルをPythonで分割する
次のコードを作成しましたが、実行に時間がかかりすぎました。誰もコードの最適化を助けることができます。
import csv
print "Please delete the previous created files. If any."
filepath = raw_input("Enter the File path: ")
line_count = 0
filenum = 1
try:
in_file = raw_input("Enter Input File name: ")
if in_file[-4:] == ".csv":
split_size = int(raw_input("Enter size: "))
print "Split Size ---", split_size
print in_file, " will split into", split_size, "rows per file named as OutPut-file_*.csv (* = 1,2,3 and so on)"
with open (in_file,'r') as file1:
row_count = 0
reader = csv.reader(file1)
for line in file1:
#print line
with open(filepath + "\\OutPut-file_" +str(filenum) + ".csv", "a") as out_file:
if row_count < split_size:
out_file.write(line)
row_count = row_count +1
else:
filenum = filenum + 1
row_count = 0
line_count = line_count+1
print "Total Files Written --", filenum
else:
print "Please enter the Name of the file correctly."
except IOError as e:
print "Oops..! Please Enter correct file path values", e
except ValueError:
print "Oops..! Please Enter correct values"
私も
lakhsよりも従来のユニットはどうですか?;) – liborm
別のファイルポインタを使って異なるポイントを探して、それらをcoルーチン/ geventで並列に使うのはどうですか? – SRC
私はまだそれを試していない。同じものを手伝ってもらえますか?マルチスレッドまたはマルチタスクがここで役立つでしょうか。 – user2597209