2017-07-14 14 views
1

私はpythonとbs4に新しいです、私に簡単に行ってください。bs4/python3を使ってhrefを抽出していますか?

#!/usr/bin/python3 
import bs4 as bs 
import urllib.request 
import time, datetime, os, requests, lxml.html 
import re 
from fake_useragent import UserAgent 

url = "https://www.cvedetails.com/vulnerability-list.php" 
ua = UserAgent() 
header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'} 
snkr = requests.get(url,headers=header) 
soup = bs.BeautifulSoup(snkr.content,'lxml') 

for item in soup.find_all('tr', class_="srrowns"): 
    print(item.td.next_sibling.next_sibling.a) 

プリント:

<a href="/cve/CVE-2017-6712/" title="CVE-2017-6712 security vulnerability details">CVE-2017-6712</a> 
<a href="/cve/CVE-2017-6708/" title="CVE-2017-6708 security vulnerability details">CVE-2017-6708</a> 
<a href="/cve/CVE-2017-6707/" title="CVE-2017-6707 security vulnerability details">CVE-2017-6707</a> 
<a href="/cve/CVE-2017-1269/" title="CVE-2017-1269 security vulnerability details">CVE-2017-1269</a> 
<a href="/cve/CVE-2017-0711/" title="CVE-2017-0711 security vulnerability details">CVE-2017-0711</a> 
<a href="/cve/CVE-2017-0706/" title="CVE-2017-0706 security vulnerability details">CVE-2017-0706</a> 

/cve/CVE-2017-XXXX/部分を抽出する方法を見つけ出すことはできません。おそらく私はそれについて間違った方法を行った。私はタイトルやHTMLが必要ではなく、ちょうどURIです。

+0

'print(item.td.next_sibling.next_sibling.a.href)' –

答えて

0

BeautifulSoupには、一般的に、フィルタリングや物事を取得するための履歴バリアントが多すぎます。そのうちのいくつかは、他のものより厄介です。それ以外の場合は混乱するので、私はそれらのほとんどを無視します。

属性の場合、私はget()を好むので、ここではitem.td.next_sibling.next_sibling.a.get('href')です。例外を出す代わりに、そのような属性がない場合はNoneを返すためです。

関連する問題