:のpythonのダウンロードWebページ内のすべてのファイル
import os
import urllib
from lxml import html
def main():
os.chdir("Downloads/")
url = "http://standards.iso.org/ittf/PubliclyAvailableStandards/ISO_IEC_14496-26_2010_Bitstreams/DVD1/mpeg4audio-conformance/compressedMp4/"
page = html.fromstring(urllib.urlopen(url).read())
for link in page.xpath("//a"):
filelink = "http://standards.iso.org/" + link.get("href")
print "download",filelink
runme("wget " + filelink)
return
if __name__ == '__main__':
main()
しかし、私は少ないコード行でそれをどのように改善できるか、それが最高のものではないだと思いますか?
ホスト名を抽出するためのURLを使用するようにコードを追加し、それをハードコーディングしないでください。 – lucky1928
あなたの唯一の目的が行を少なくすることであるならば、 'python-requests'や' BeautifulSoup 4'や 'Scrapy'のような完全なツールセットのようなもっと現代的なライブラリを使うのと並んで他にはあまりないでしょう。しかし、これをスピードとエラーのどちらかに最適化したい場合は、 'runme'が非同期で実行されているか、' filelink'が不正なリンクであるかどうかを処理するかどうかということがまず必要です。 – woozyking