bs4

    0

    1答えて

    <a href="some_url" game_id="Some integers"</a> 「いくつかの整数」は、すべてのhrefリンクで変化する数字です。 これからは、「some url」というhrefを抽出したいと思います。今 私のコード:コードはhrefのリンクを検出できるように疑問符:私は「game_id」を入れるべきこと for link in table.find_all("a"

    0

    1答えて

    私はこの会社のメンバーディレクトリのWebページから名前&アドレスデータをこすりしたいのですが(すなわち3i Financial Investment Services Inc.)の名前としてのキーとその住所としての価値を辞書に入れます。 名前を辞書に追加することはできましたが、何らかの理由で自分のアドレスをキーとして添付することができません。どのようにこれを行うには誰も私を導くことができますか?

    1

    2答えて

    でBS4をインストールdist-packageディレクトリへのアドレス。私はそこにリクエストパッケージが見つかりましたが、私は私のアプリを起動し、私のdjangoのウェブサイトを開くときにエラーが発生しました:no module named requests。このコマンドを使用してbs4をインストールしようとすると、次のようになります。 pip3 install bs4 許可が拒否されました。

    0

    2答えて

    私は野球チームの今日の試合で相手チームになりたいと思っています。 私はこれをコード化しました。 このコードは、今日のゲームの情報をWebサイトから入手します。 from bs4 import BeautifulSoup import datetime import urllib.request req = urllib.request.Request("http://www.hanwhae

    0

    2答えて

    私は人と会話のチャットログをまとめようとしています。私は名前、時間、テキストでそれを壊すことができるようにしたい。私が引っ張っている会話は素敵できちんとしたCSVファイルではないので、私はソースコードから抜き取る必要があります。私は以下のようなコードを取得します。 <div class='message'>と</p>の間にあるすべての文字列を引き出す方法はありますか?それぞれの送信者と送信された個

    1

    1答えて

    私はライブラリページから検索結果をスクラップしようとしています。しかし、私は書籍のタイトル以上のものを求めているので、スクリプトがすべての検索結果を開き、詳細なサイトで詳細を調べるようにしたい。 私がこれまで持っていることは以下の通りです: import bs4 as bs import urllib.request, urllib.error, urllib.parse fr

    0

    2答えて

    最初のテーブルデータを両方ではなくスクラップする方法を理解できません。 <tr> <td>WheelDust </td> <td>A large puff of barely visible brown dust </td></tr> 私だけWheelDustをしたいが、その代わり、私はWheelDustとかろうじて見える茶色のほこり import requests from bs4

    0

    2答えて

    私はウェブサイトからレビューを掻き集めようとしており、の「詳細を読む」のオプションを掻き集めることはできません。 私はもっと読むまでデータを得ることができます。 私はBeautifulSoupを使用しています。 何か助けていただければ幸いです。

    0

    1答えて

    ページでhttps://bittrex.com/api/v2.0/pub/Markets/GetMarketSummaries私はリクエストでプルするテキストを解析しようとしています。私はテキストを引っ張るために使用していたコードは、それが唯一の特定の通貨の番号を取得するように、私は簡単なように、今私はBS4でそれを解析したいページからすべてのテキストを引くことができますが、ここで import

    1

    1答えて

    を抽出するために、リストにBeautifulSoupオブジェクトを変換する「bs4.BeautifulSoup」私は、リストせるにそれを行うことができますどのように site_link = soup.find_all('a', string='Aberdeen')[0] row = site_link.findParent('td').findParent('tr').findAll('td')