2016-11-06 5 views
0

私はPythonとWebクローリングを全く勉強していません。対象のリンクhtmlをテキストファイルにダウンロードする

テキストページで個別のターゲットリンクをダウンロードしようとしています。 これまでは、必要なすべてのターゲットURLを抽出することに成功しましたが、複数のファイルですべてのターゲットHTMLテキストをダウンロードする方法についてはわかりません。以下のコードは、複数のファイルで同じ記事を表示しています。

誰かが私を助けてくれますか?物事が変化する時点から始まるあなたのコードのスタイルで

url = "" 
r = requests.get(url) 
data = r.text 
soup = BeautifulSoup(data, "lxml") 
link1 = soup2.find_all('a', href=re.compile("drupal_lists")) 

for t1 in link1: 
    print(t1.attrs['href']) 
link_data = requests.get(t.attrs['href']).text 

import io 
for i in link_data: 
    link_data 
    with io.open("file_" + str(i) + ".txt", 'w', encoding='utf-8') as f: 
     f.write(str(i)+link_data) 

答えて

0

、:

for i, t1 in enumerate(link1): # Get indices and data in one go 
    link_data = requests.get(t1.attrs['href']).text 
    with io.open("file_" + str(i) + ".txt", 'w', encoding='utf-8') as f: 
     f.write(link_data) # no str(i) because that would mess with the HTML 
関連する問題