urllib2

    0

    1答えて

    を死ぬとフリーズ、私はurllib2ので働いている、そしてそれは、特定のページに凍結し続けます。 Ctrl-Cは操作をキャンセルしません。それはエラーを投げている(私はすべてをキャッチしている)、私はそれを壊す方法を見つけることができません。 urllib2のタイムアウトオプションはデフォルトでは決してありませんか? がここに手順です:次に req = urllib2.Request(url,

    0

    1答えて

    私はそれらのリストを含むテキストファイルを読み込むことで、バッチのダウンロードテキストファイルにスパイダー3.0を使ってPython 2.7でurllib2のモジュールを使用しています: reload(sys) sys.setdefaultencoding('utf-8') with open('ocean_not_templated_url.txt', 'r') as tex

    0

    1答えて

    結果をサーバーに送信したい。この時点で cur.execute('SELECT a,b,c,b FROM wicap WHERE a.num > 600 limit 25') r = cur.fetchall() rは次のとおりです。 response = urllib2.urlopen('http://example.com/post/', data=r) を介してデータを取得すること

    0

    1答えて

    はurllib2のを使用してログインするには、このリンクをたどっ: Login to website using urllib2 - Python 2.7 私は私がログインする必要がこれを行うには、ストレージスペースの仮想マップを作成されてやろうとしていますウェブベースの管理サーバに転送する。したがってBS4の使用法とurllib。 ほとんどのリクエストはうまくいきます。ただし、urllibを使用

    0

    2答えて

    このWebサイトの表と段落のテキストからさまざまな要素を抽出します。 https://www.instituteforsupplymanagement.org/about/MediaRoom/newsreleasedetail.cfm?ItemNumber=30655 これは私が使用していますコードです: import lxml from lxml import html from lxml

    1

    1答えて

    をpdfkitするメモリhtmlファイルを渡す私はちょうどのpython p =urllib2.build_opener(urllib2.HTTPCookieProcessor).open('http://www.google.com') html_content = p.read() でウェブサイトをダウンロードし、今私はpdfファイルにそれを書きたい: pdfkit.from_file(

    -2

    1答えて

    私はフォロワーの名前を取得しようとしました。 そして、私はプログラムが唯一のグリッドに最初の12人のユーザーを読み、完全に残りの部分を無視した:

    3

    2答えて

    私はこのURLで2番目のデータフレームのみを使用しようとしていますが、1つのデータフレームだけを取得する方法を特定できません。それはチャートとテーブルのデータフレームを印刷しますが、印刷したいのはテーブルだけです。 `import pandas as pd import urllib.request page = pd.read_html('https://www.google.com/fi

    0

    1答えて

    import urllib2 def download(url,user_agent = 'wswp',num_retries=2): print 'downloading:',url headers = {'User-Agent': 'Mozilla/5.0'} request = urllib2.Request(url,headers=heade