すべてのデータ(つまりすべてのページ)を単一のcsvファイルに保存しようとしていますが、このコードは最終ページのデータのみを保存します.Egここで[]には2つのURLが含まれています。最後のCSVには2番目のURLデータのみが含まれます。 私は明らかにloop.butで何か間違っています私は何を知っている。 また、このページには100個のデータポイントが含まれています。しかし、このコードでは最初の44行しか書き込まれません。 .............PythonのwebscrapingとCSVへのデータ書き込み
from bs4 import BeautifulSoup
import requests
import csv
url = ["http://sfbay.craigslist.org/search/sfc/npo","http://sfbay.craigslist.org/search/sfc/npo?s=100"]
for ur in url:
r = requests.get(ur)
soup = BeautifulSoup(r.content)
g_data = soup.find_all("a", {"class": "hdrlnk"})
gen_list=[]
for row in g_data:
try:
name = row.text
except:
name=''
try:
link = "http://sfbay.craigslist.org"+row.get("href")
except:
link=''
gen=[name,link]
gen_list.append(gen)
with open ('filename2.csv','wb') as file:
writer=csv.writer(file)
for row in gen_list:
writer.writerow(row)
はそんなにありがとう..... – Arunkumar