bs4

    2

    1答えて

    class_="_e4d"でclass_="href"をスクラップしたいと思います。基本的には、BeautifulSoupを使ってクラス内のクラスをスクレイプすることを目指しています。 from bs4 import BeautifulSoup import selenium.webdriver as webdriver url = ("https://www.google.com/sear

    0

    1答えて

    私は次のfind_all()という表現を使って、 のすべてのNavigableStringを通常のフローでソートしています。 all_nav_strings = [x for x in node.find_all(text=True) if x.strip() != "" if not type(x) is bs4.Comment] 私も(通常の流れの順で)すべての画像を検索するfind_al

    0

    1答えて

    これは私の(素人パイソン学習者)の最初の質問です。私はこれを正規表現の練習として書いたが、私はthis oneのようないくつかのサイトを読んで、どのくらい美しいものが遅いか話している。私はまたlxmlが高速であることを読んで、私はそれのためのドキュメントを読んでいるが、私はまだ何か(またはそれが意味を成すかどうか)bs4をここでより速くスワップする方法を知らない。 は、だから私は非常に速く、以下の

    -1

    1答えて

    私はPythonには新しく、単純なWebスクレーパーを開発しようとしています。私は、HTML内でスクリプトタグを掻き集めることに問題があります。ここに私のコードは次のとおりです。 from urllib.request import Request, urlopen from bs4 import BeautifulSoup import re link = "https://yeezys

    1

    1答えて

    私は単純なアプリケーションを試しています。しかし、私はVS.CodeからBS4をインポートすることはできません。アンインストール、再インストール、パスのチェックなどを試みましたが、今は固まっています。誰もこの問題を解決する方法を知っていますか?スクリーンショットを参照してください: Windows PowerShell Copyright (C) 2016 Microsoft Corporati

    0

    1答えて

    をto_csv野球データを引き出すことを試みていますhttp://rotoguru1.com/cgi-bin/byday.pl?game=dk フォーマットはdfに適していますが、いくつか問題があります。 1.)私は取り出したいと思うページスクレイピングのforループにcsvへの書き込みがありますか? csvに書き込む前に情報を保存するための新しい変数を作成するだけですか? 2.)ページングは​​

    2

    1答えて

    私は、私はこのサイトから、プレイヤー名と投影をこすりしようとしています...しばらくの間、この上で立ち往生されています:https://www.fantasysportsco.com/Projections/Sport/MLB/Site/DraftKings/PID/793 スクリプトがちょうど経て過去をループするために起こっていますすべてのPIDは範囲内ですが、それは問題ではありません。主な問題

    0

    2答えて

    だから私は財政のためのPythonでこのseriesを使用していますし、それは私にエラーを与える続け - 1) line 22, in <module> save_sp500_tickers() and 2) line 8, in save_sp500_tickers soup = bs.BeautifulSoup(resp.text,'lxml')and 3) line 165

    0

    1答えて

    私は部品番号を受け取り、その後、このウェブサイトから、その製品のWebページのリンクを取得する関数を記述しようとしています:http://www.assmann-wsw.com 私は、Webページを解析するBS4モジュールを使用しています。パーツ番号検索実行時に URLは、この構造を、以下: 「http://www.assmann-wsw.com/us/en/artikelfinder/?artn

    0

    1答えて

    私はニュースサイトのRSSフィードを解析し、実際の記事への公開日、タイトル、説明、リンク日を引き出そうとしています。これまでのところ、これらのコード行で: with open('text.txt', 'r', encoding='utf-8') as f: soup = bs4.BeautifulSoup(f, 'lxml') all_item_tags = soup.find