ウェブサイトから複数の圧縮ファイルをダウンロードしようとしています。私は1つのファイルをダウンロードするための答えを見てきましたが、それはかなり簡単ですが、私はそれが複数のファイルのために働くように問題を抱えています。 URLには、私がダウンロードしたい140個の圧縮ファイルがあります。pythonを使用してURLから複数のzipファイルをダウンロードする
は、これまでのところ、私のコードの考えは以下のとおりです。
import urllib
url = "http://ftp.geogratis.gc.ca/pub/nrcan_rncan/vector/geobase_nhn_rhn/shp_en/03/"
##search url for zipped files and download them (this is where I am stuck)
urlfile = (the zipped files??)
if urlfile.endswith (".zip"):
urllib.urlretrieve (url, r"C:\Users\maverick\Desktop\Canada Features")
私は私が必要なものへのさえ近くないと知っているが、右方向へのプッシュがいただければ幸いです。私はScrapyも見てきましたが、私はurlibがその作業を達成できるはずだと考えました。
[ftp](https://stackoverflow.com/questions/111954/using-pythons-ftplib-to-get-a-directory-listing-portably)経由でファイルを転送できますか?あなたがウェブページの解析に固執しているなら、[美味しいスープ](https://stackoverflow.com/questions/tagged/beautifulsoup?sort=votes&pageSize=15)が役に立つかもしれません。 – Eric