では、次のようなコールバックパラメータを使用する必要がありますこのような連鎖をクロールするために、scrapy Request structureを参照してください。ここで
class MySpider(BaseSpider):
...
# spider starts here
def parse(self, response):
...
# A, D, E are done in parallel, A -> B -> C are done serially
yield Request(url=<A url>,
...
callback=parseA)
yield Request(url=<D url>,
...
callback=parseD)
yield Request(url=<E url>,
...
callback=parseE)
def parseA(self, response):
...
yield Request(url=<B url>,
...
callback=parseB)
def parseB(self, response):
...
yield Request(url=<C url>,
...
callback=parseC)
def parseC(self, response):
...
def parseD(self, response):
...
def parseE(self, response):
...
私は治療法を使用していませんが、[ドキュメント](http://doc.scrapy.org/en/latest/intro/tutorial.html)は広範で、これを達成するための十分な情報が含まれています。 'A'ページから' B'リンクを取得してから解析する[link extractor](http://doc.scrapy.org/en/latest/topics/link-extractors.html)を書く必要があるようです'B'ページで' C'のページURLを探します。それをやってみて、問題があればコードで特定の質問を投稿してください。 – ChrisP
申し訳ありませんが、ドキュメントは初心者にとっては非常に悪いものです。少なくても無駄な例があり、ドキュメントサイトに戻ることは誰にも役立たないということです。 – not2qubit