どのようにしてCSVで遅延なく書き込むように設定できますか?遅延なしでCSVへの書き込みを書く
scrapy crawl spider_1
を実行し、spider_1
に予想される200個のアイテムがあるとすると、治療はcsvではなくバッチで書き込まれます。私はこれを設定する場所がわかりません。
私は
CONCURRENT_REQUESTS = 1
CONCURRENT_ITEMS = 1
を試みたが、まだそれは15+バッチでcsvファイルに書き込みます。ここで
は、彼らが道私はそれをテストして..です
while sleep 2; do cat results/price.csv | wc -l; done;
結果は、それが20th
最初32th
項目を書き込む
0
35
35
35
35
52
52
52
52
70
70
お知らせ18th
ました。
私が欲しいのは、データを取得した直後にアイテムを書き込むことです。 どうすればいいですか?
治療は同期要求しないでください。それは多くの要求を送り、応答を待つ。したがって、シーケンス出力は得られません。 –
['CsvItemExporter'](https://github.com/scrapy/scrapy/blob/dfe6d3d59aa3de7a96c1883d0f3f576ba5994aa9/scrapy/exporters.py#L206)がどのように実装されているかを見てみてください。 '.export_item()'。 –
私は同様の問題を抱えていました。私は何をしたのですか?すべてのデータをmongodbに書き込んでそこからすべてのデータを書き込んでください。 –