可能性の重複:
Multiple (asynchronous) connections with urllib2 or other http library?Pythonで複数のHTTPリクエストを送信する理想的な方法は?
私は、サードパーティのAPIからHTTPを介してリアルタイムのデータをつかむためにPythonコードを実行し、LinuxのWebサーバに取り組んでいます。データはMySQLデータベースに格納されます。 多くのURLに対して多くのクエリを実行する必要があり、高速化する必要があります(より速い方が良い)。現在、私はHTTPライブラリとしてurllib3を使用しています。 これについてはどのような方法が最適ですか?私は複数のスレッドを生成する必要がありますか? 私はあなたの考えを聞いて欲しいです - ありがとう!
私はこのメソッドを使って約50,000のURLにリクエストを送信したいと思います。それは良い戦略ですか?また、タイムアウトなどの例外はどうですか? – John
@ジョンはい、そうです。例外については、['safe_mode'](http://requests.readthedocs.org/en/latest/api/)のパラメータを参照し、[953](https://github.com/kennethreitz/requests/pull/953)を発行してください。 –
grequestを使用して30件を超えるリクエストを送信することはできません。私がするとき、私は "最大リトライはurlで超過しました:...、開いているファイルが多すぎます"。とにかくこの問題を解決するには? – AliBZ