bs4

    0

    3答えて

    table = soup.findAll('div', attrs={"class":"five columns"}) for data in table: para = data.findAll('p') print para これは私がまだ残しているものです。 <p><span class="four">Location: </span> <span id="wt-l

    0

    2答えて

    BS4とPython 3.5でWebページを解析しています。 次のようになりますDIVからのみのユーザー名(リンクテキスト)を抽出しようとすると: <div class="about"><a href="es_viewprofile.aspx?profile_id=110181766">claudiakenzo</a> 33    Pasar el

    1

    1答えて

    私はこのページを掻き集めました。具体的には、Cap Hit(Fowards、Defense、GoalTenders)タブのテーブルを探しています。https://www.capfriendly.com/teams/bruins 出力形式としてPythonとBeautifulSoup4とCSVを使用しました。 import requests, bs4 r = requests.get('http

    0

    1答えて

    forループを使用してサイトのいくつかのディレクトリをクロールしています。 for url in URL_list: for paged in range(1,99): fullURL=("%s/?count=96&paged=%s&p=&page_id="%(url,paged)) print(fullURL) source= urllib.re

    0

    2答えて

    私は、Python 3.5を使用して(同じウェブサイトから)URLのリストをこすりしようとしているのリストをスクレーピング: import urllib.request from bs4 import BeautifulSoup url_list = ['URL1', 'URL2','URL3] def soup(): for url in url_list:

    1

    2答えて

    リストがあります。コードブロックを実行したいのですが、リストは数千アイテム長く、時間がかかりすぎますそれらを繰り返します。 スクリプトで同時にそのリストのすべての項目をチェックする方法はありますか? 私のコードは次のようになります。 def check_url(url_loc): response1 = requests.get(url_loc) time.sleep(10)

    0

    1答えて

    これはしばらくの間作業していましたが、多分私は必要な答えを得るために間違ったことを探しています。 私はウェブページで検索したい特定の単語をキーとする辞書を持っています。私はそれらの単語を強調表示し、結果のHTMLをローカルファイルに保存したいと思います。 EDIT:後で、人々は自分自身でコードを実行するようになりました。このlinkには、単語辞書と、私がスキャンしているページの中で最も一致するはず

    0

    1答えて

    私はいくつかのコードを書いていますが、最初の部分は完全に(90値を含む)取り込みますが、2番目の部分は価格が不完全リストを保持します(30を含みます)。ループのようなそのセグメントのために働いていないようだ。 フルリストを保持するためにこのコードをどのように変更する必要がありますか? ありがとうございます! import re import requests from bs4 import B

    -1

    1答えて

    このHTMLスニペットを好きなようにフォーマットしたいと思います。私はちょうど私が正規表現を含む多くのことを試してみましたが、翻訳、でも置き換えてきた、大学フォーラムの一部を望ん <*strong class="linkBlack">College Forum</strong*> *さん を無視して http://pastebin.com/hwhTLeyk HTMLからクラス名を引き出す方法が

    -3

    1答えて

    私は今、少しずつスクレーパーに取り組んでおり、意図したとおりに動作させることにとても近づいてきました。私のコードは次のようになります: import urllib.request from bs4 import BeautifulSoup # Crawls main site to get a list of city URLs def getCityLinks(): city