bs4

    0

    1答えて

    をこすりするのpythonを持つURLを反復 - 例外TypeError:文字列中に変換すべての引数の書式ありません 私はvar(n)をmaxに設定しているので、17ページあります。連続するページに到達するためにforループを使用しました。このコードは、反復コンポーネントがコメントアウトされている場合に機能します。コードをより効率的にするためのループを定義できますか? response = url

    0

    1答えて

    たとえば、要素にclass属性(bs4のelement.has_attr("class"))があるかどうかを確認する必要がある場合、どうすればSeleniumでこれを行うことができますか?

    0

    1答えて

    私はpythonを使用してWebページを読み込み、csv形式でデータをpandasデータフレームとしてインポートしようとしています。 私はすべてのページからリンクを抽出する代わりに、特定の列フィールドを読み込もうとしています。 for i in range(10): url='https://pythonexpress.in/workshop/'+str(i).zfill(3)

    1

    1答えて

    私はPython 3を使用していますが、私は次のように簡単にウェブサイトのコンテンツをダウンロードしようとしている:私は取得しています # IMPORTS -------------------------------------------------------------------- import urllib.request from bs4 import BeautifulSoup

    1

    1答えて

    私はbs4でGoogle検索からリンクを取得しようとしていますが、私のコードは空のセットを返しています。すべての結果のためのリンクは、最初の結果のためだけのリンクではありませんどこ import requests from bs4 import BeautifulSoup website = "https://www.google.co.uk/?gws_rd=ssl#q=science"

    1

    1答えて

    Player名とFP列を取得しようとしています。hereです。通常、テーブル情報が必要なときは、pandasを使用してDataframeにロードするか、少なくともfind_all()メソッドをbs4で実行します。誰でもいくつかのガイダンスを持っている場合、私は非常にそれを感謝し、 import requests from bs4 import BeautifulSoup scrape_url

    -1

    1答えて

    私はGoogle Scholarのデータをスクラップするプロジェクトに取り組んでいます。私はカテゴリー(例えばAnaphylaxis)でタグ付けされたすべての著者を掻き集めて、引用数、h-indexとi-10インデックスをCSVファイルに保存したいと思います。しかし、私はGoogle ScholarにAPIがないので、これを行う方法は不明です。私は美しいスープのようなスクレーパーを使うことができる

    0

    1答えて

    Google Scholarのデータをスクラップするプロジェクトに取り組んでいます。私は著者のh-索引、総引用数、i-10索引(すべて)を掻き集めたい。 Louisa Gilbertからたとえば、私はこすりしたい: h-index = 36 i10-index = 74 citations = 4383 私はこの書かれている: from bs4 import BeautifulSoup

    0

    2答えて

    Google Scholarの特定のタグとして自分自身をクラス化するCSVファイルに、URLを持つすべての作者のリストをCSVファイルに書きたいと思います。これは、最初のページのみのためにそれをしない、私はしかし、各著者の名前 # -*- coding: utf-8 -*- import urllib.request import csv from bs4 import BeautifulS

    -1

    1答えて

    私はOOPを開始しようとしており、この方法でスクリプトを書き直すことに決めました。 Webページは、私が保存したいリンクの箱を持っているので、私は次のコードに class webpage(BeautifulSoup): def __init__(self, link, html, links): self.link = link driver = webdri