私はCSVファイルに多数のレコードを持っています。レコードをグループに分割しますか?
私は複数の挿入を単一のクエリに実装しようとしていますが、私は合計レコードのベースが必要な単一のクエリの数を試してみる必要があります。例えば
:
$totalRecord = 1620;
だから私は17個のクエリを必要とします。 16クエリは100レコードを挿入し、17クエリは20レコードを持ちます。
$totalRecord
の数は、これをうまくする方法500,00
から1の間に何もすることができますか?
例:
Query 1:
INSERT INTO [table]
([field1], [field2], [field3]) VALUES
('[value1.1]', '[value1.2]', '[value1.3]'),
('[value2.1]', '[value2.2]', '[value2.3]'),
('[value3.1]', '[value3.2]', '[value3.3]'),
Query 2:
INSERT INTO [table]
([field1], [field2], [field3]) VALUES
('[value1.1]', '[value1.2]', '[value1.3]'),
('[value2.1]', '[value2.2]', '[value2.3]'),
('[value3.1]', '[value3.2]', '[value3.3]'),
これは一回限りの操作ですか、それとも頻繁にやっていますか?一回限りの場合は、CSVから直接データベースにインポートする方がはるかに優れています。コードでは、fgetcsv()を使用してループに挿入する方が簡単です。 –
@Michael毎週1回好きなことがよくあります。これは私が 'fgetcsv()'を実行してループに挿入するものですが、100,000を超えるレコードは遅すぎます。だから私は、複数の挿入クエリをグループ化する必要があります。私は必要なグループ数をどのように計算するのですか? –
多分準備文について読んでいますか?リンク - > http://php.net/manual/en/pdo.prepared-statements.php – Tudor