私は少し治療に慣れていて、ある時点で立ち往生しています。私はそれが閉じられるときにクモを再起動したい。Scrapy複数のスパイダーを後でクロールする
私がここで実装しようとしているのは、データベースからURLを取得しているということです。「scie crawl xyz」リクエストを送信するたびに、start_requestは1つのURL [次のURL]を取得します。データベースからの前の要求で渡されたものとは異なります。
データベースに4つのURLがある場合は問題があります。「scrapy crawl xyz」を4回実行する必要がありますが、これを避けたいと思い、現在の「spider_closed」が取得されると「scrapy crawl xyz」を起動しようとしていますスパイダーの終わりに呼ばれた。助けてください
おかげGranitosaurusをやったが、私は私がここにされてしようとしていますどのような、複数のクモを実行したくありません1回目のURLからデータを削ったときに同じスパイダーを再度実行する – vrnair
その場合、処理に追加する前にMySpider.start_urls属性を更新するだけで済みます。ところで、スパイダーを起動するときにstart_requestsに複数のURLを渡すのはなぜですか? – Granitosaurus
複数のURLを一緒に渡している間、私は接続ピアと "twisted.python.failure.failure class 'openssl.ssl.error'"からリセットを取得していますが、同時にそれらのリンクをクロールしているときに同時にクロールしています何もエラーなしで – vrnair