大きなCSVファイルがあり、行ごとにではなく、一度にすべて挿入したいと思います。これは私のコードです:巨大なCSVファイルを一度にSQL ServerにPythonで挿入するには?
import pypyodbc
import csv
con = pypyodbc.connect('driver={SQL Server};' 'server=server_name;' 'database=DB-name;' 'trusted_connection=true')
cur = con.cursor()
csfile = open('out2.csv','r')
csv_data = csv.reader(csfile)
for row in csv_data:
try:
cur.execute("BULK INSERT INTO Table_name(Attribute, error, msg, Value, Success, TotalCount, SerialNo)" "VALUES (?, ?, ?, ?, ?, ?, ?)", row)
except Exception:
time.sleep(60)
cur.close()
con.commit()
con.close()
提案をありがとうございましたが、私は、これはまた、行によって、通常の挿入文の行のそれと同じ時間がかかるだろうと思い、私は代わりに一括挿入を使用していました。 – Ricky