screen-scraping

    0

    1答えて

    私はFacebookのプロフィールから基本情報をスクラップしようとしています。私の最終的な目標は、誰かの年齢を取得することです(例えば、facebookで情報にアクセスできる場合は、casperjを使用してください)。 私はCasper.jsをインストールしました。 パスワードとメールを入力して、検索フィールドへのアクセスを2回目から始めました。 しかし:ここ ReferenceError: Ca

    0

    1答えて

    問題があります。私はウェブサイトから情報を抽出する必要があります:https://www.transfermarkt.co.uk/premier-league/startseite/wettbewerb/GB1クラブの名前、ウェブサイトのアドレス(transfermarktのプロフィール)、チームのプロフィールからスタジアムの名前。これがウェブサイトからのデータ抽出に関する私の最初の連絡です。どん

    -1

    1答えて

    私はリンクのリストとして出てくる日付をこのウェブサイトの下部にあります。私はエラーが何も起こらないので何がうまくいかないのか分からない。私はNY時間のようなウェブサイトのために働く、より簡単なアプローチを試みました。しかし、これらはうまくいかなかったので、私はUser Agentを調べました。 import urllib import lxml.html import urllib2 fro

    -3

    1答えて

    PythonまたはRを使用して、次のWebサイトのデータをどのようにデータフレームまたは同様の形式にダウンロードできますか?私はこれがウェブスクレイピングではなく、むしろクエリを使用してデータを取得する要求をしていると仮定します。 https://www.michigantrafficcrashfacts.org/querytool/lists/0#q1;0;2016;;

    0

    1答えて

    tryブロックの前でコードが正常に実行されています。私はURLを取得しているときに例外を出します。最初のリンクを取り出してクラッシュします。 洞察力を提供してください。リスト内のすべてのリンクを取得していますが、forループでこれらのURLをフェッチしているときにクラッシュします。 from selenium import webdriver from selenium.webdriver.co

    1

    1答えて

    私はこのスクリプトを作成しましたが、データを保存するためのいくつかのオプションを試しましたが、私はコードを使いこなしています。抽出されたデータをCSVファイルまたはExcelファイルに保存するにはどうすればよいですか? import requests from bs4 import BeautifulSoup base_url = "http://www.privredni-imenik.c

    -1

    1答えて

    bookmakersのすべてのイベントのすべてのオッズを取得する方法が必要 私はScrapy + Splashを使用して、サイトの最初のjavascriptで読み込まれたコンテンツを取得しています。しかし、他のすべてのオッズを得るには、 "Spagna-LigaSpagnola"、 "Italia-> Serie A"などをクリックする必要があります。 どうすればいいですか?

    0

    1答えて

    私はPython初心者の開発者です。私はまだ学習段階です。 より具体的には、要求とbs4を使用したスクレイピングに取り組んでいます。私は次のコードを使用し「http://directorybtr.az.gov/listings/FirmSearchResults.asp?Zip%20Like%20%22850%25%22」 ::次のリンクをこすりしようとしたとき import requests

    0

    2答えて

    ウィキペディアの人間開発指数から最初の8つのテーブル(非常に高、高、中、低)を掻き取ろうとしています。 ゼロで始まっていますが、リストを取得しています。私は間違って何をしていますか? R :( libray(rvest) url <- "https://en.wikipedia.org/wiki/List_of_countries_by_Human_Development_Index#Compl

    2

    3答えて

    なぜデータを手作業でエクセルに入力すれば、パンダが機能するのですか?しかし、私がデータを掻き集めると、それをCSVに入れます。それは私に与えます: zz = df1.WE=np.where(df3.AL.isin(df1.EW),df1.WE,np.nan) ValueError: operands could not be broadcast together with shapes (148