2017-04-02 49 views

答えて

1

のような他のURLのHTTPヘッダーにユーザーエージェントを指定してみてうまく機能:

また
❯❯❯ python3 
Python 3.5.2 (default, Sep 14 2016, 11:28:32) 
[GCC 6.2.1 20160901 (Red Hat 6.2.1-1)] on linux 
Type "help", "copyright", "credits" or "license" for more information. 
>>> import requests 
>>> headers = requests.utils.default_headers() 
>>> headers['User-Agent'] = 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36' 
>>> r = requests.get('https://academic.oup.com/journals', headers=headers) 
>>> r 
<Response [200]> 

、必ずwebsite's robots.txt

+0

で述べたルールはありがとうござい追従させます。それはうまくいく。 – liliput

関連する問題