あなただけの[=のhref $ csvファイル。] 、あなたはCSSセレクタで行うことができますのhrefをフィルタリングする必要があります hrefの末尾が.csvになり、それぞれをベースURLに結合し、コンテンツをリクエストし、最後にコンテンツを書きます:
from bs4 import BeautifulSoup
import requests
from urlparse import urljoin
from os.path import basename
base = "http://www.football-data.co.uk/"
url = requests.get('http://www.football-data.co.uk/englandm.php').text
soup = BeautifulSoup(url)
for link in (urljoin(base, a["href"]) for a in soup.select("a[href$=.csv]")):
with open(basename(link), "w") as f:
f.writelines(requests.get(link))
これは5つのファイル、E0.csv、E1.csv、E2.csv、E3.csv、E4.csvのすべてのデータが入っています。
あなたは、1ページからリンクされたすべてのcsvファイルをダウンロードしたいと思っていますか?私はすべてのリンクを繰り返し、ファイル拡張子をチェックすることは悪い考えではないと思います。 – martijnn2008