scrapy

    0

    1答えて

    私はこのwebsiteのデータを削り取ろうとしています。ページは重いjavascriptを使用し、私はそれからhrefとオッズを得るために苦労しています。 私の現在の出力は次のようになります。 私は私の出力はのようになりたいと思っています...(緑): は class BlueBet(scrapy.Spider): name = "BlueBet" start_urls = [

    0

    1答えて

    Pythonとlinux初心者が治療を開始しようとしています。 https://doc.scrapy.org/en/latest/intro/tutorial.htmlの指示とコードに従ってください。ユーザーの警告を受け取っています "service_identityモジュールのインストールがありません: '名前を取り込めません。' opentype ' 「service_identity」をイン

    0

    1答えて

    ハイパーリンクのページ区切りボタンがないレビューサイトにページを分けようとしています。私は、各リンクのページ数をページ付けし、ハードコーディングするロジックを書いています。しかし、私はそれがstart_requestsの特定のリンクのページ数として掻き集めた情報を使用することが可能かどうかと思っています。ここ スパイダーコード(2つのリンクを経由ページ付けする): class TareviewsS

    0

    2答えて

    は のPythonに(非常に)新しいプログラミング一般 に私は私のコードは動作しますが、それが読めないと実用的ではありませんScrapy と同じウェブサイトの複数のページ/セクションからデータをこすりしようとしてきました import scrapy class SomeSpider(scrapy.Spider): name = 'some' allowed_domains = ['http

    0

    1答えて

    私はespnのウェブサイトからゲームのオッズを抽出しようとしています。 「moneyLine」のオッズはスクリプトに埋め込まれており、私はアクセス方法を理解できません。理想的には、私は各ゲームの行の確率を持っています。私はチーム名と得点を列で取り出すことができました。 scrapy shell fetch('http://www.espn.com/nfl/schedule/_/week/1')

    0

    1答えて

    私は3ページに続くスパイダーを構築しようとしています。私はシェルの応答をテストしましたが、一緒に動作していないように見えますが、私はなぜそれがわかりません。 以下の私のコード: # -*- coding: utf-8 -*- import scrapy class CollegiateSpider(scrapy.Spider): name = 'Collegiate'

    -6

    1答えて

    私はちょうどの治療で始まりました。私はscrapy shell [url]でページhttp://www.ikea.com/ae/en/catalog/categories/departments/childrens_ikea/31772/をロードし、製品名を取得するにはresponse.css(div.productTitle.Floatleft)を走ったが、それは私に次のエラーを与えてきました:

    0

    1答えて

    フィルタが付いているウェブサイトのデータを取得しようとしています。このウェブサイトは次のものです:https://www.lequipe.fr/Basket/RES_NBA.html 私は必要なすべての情報を収集するだけのスパイダーを持っていますが、表示されている日付のみです。 フィルタで使用可能なすべての日付のデータを収集するために、フィルタを反復処理する必要があります。 誰かが助けてくれればと

    0

    1答えて

    数か月前にScrapyを使用して書かれた私のプロジェクトの1つとして、UbuntuをベースOSとしてドッキング・イメージを構築できません。その上映、次の依存関係のエラー - 私はScrapyの依存関係を制御することはできませんし、私は、Python 3を伴って含む、Scrapy 1.4.0、最新のリリースを使用していたとして Downloading/unpacking cryptography>=

    0

    1答えて

    アイテムをエクスポート/保存する最良の方法はREST APIですか? REST APIにスクラップしたアイテムを送信したい場合は、どこに requests.post(...)を入れる必要がありますか?どんな例?