1
私は、データベースに保存されているURLのコンテンツを取得するプログラムを持っています。私はコンテンツを取得するためにbeautifulsoup
、urllib2
を使用しています。結果を出力すると、encoutners(403のように見える)が403エラーのときにプログラムがクラッシュすることがわかります。どうすれば私のプログラムが403/404などのエラーでクラッシュするのを防ぐことができますか?python、urllib2、404エラーでクラッシュする
関連出力:
Traceback (most recent call last):
File "web_content.py", line 29, in <module>
grab_text(row)
File "web_content.py", line 21, in grab_text
f = urllib2.urlopen(row)
File "/usr/lib/python2.7/urllib2.py", line 126, in urlopen
return _opener.open(url, data, timeout)
File "/usr/lib/python2.7/urllib2.py", line 400, in open
response = meth(req, response)
File "/usr/lib/python2.7/urllib2.py", line 513, in http_response
'http', request, response, code, msg, hdrs)
File "/usr/lib/python2.7/urllib2.py", line 438, in error
return self._call_chain(*args)
File "/usr/lib/python2.7/urllib2.py", line 372, in _call_chain
result = func(*args)
File "/usr/lib/python2.7/urllib2.py", line 521, in http_error_default
raise HTTPError(req.get_full_url(), code, msg, hdrs, fp)
urllib2.HTTPError: HTTP Error 403: Forbidden
例外を使用する場合は、 – Asterisk
@アスタリスクを参照してください。 Pythonを初めて使う人。ありがとう! – yayu