これは私の簡単なクモのコードである(まだ始まったばかり): def start_requests(self):
urls = [
'http://www.liputan6.com/search?q=bubarkan+hti&type=all',
]
for url in urls:
yield scrapy.Request(url=url, c
私はすでに同様の質問をしていますが、それは新しいスパイダーですが、私は同じ問題があります(Crawling data successfully but cannot scraped or write it into csv)...私は他のスパイダーをここに置いておきます。私は通常、出力ファイルを取得する必要があるすべての情報...私を助けることができる人は誰ですか?私は金曜日にこのクモを終了しなけ