2012-12-28 39 views
8

私はpythonとscrapyで新しいです。私はScrapyのチュートリアルに従いますが、私はstorage stepのロジックを理解していません。Scrapy:データを保存する

scrapy crawl spidername -o items.json -t json 

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv 

は私がの意義を理解していけない:

  • --set
    • -o
    • -t
    • はあなたの助けをありがとうを

    答えて

    22

    することができますを入力して利用可能なコマンドのリストを表示するプロジェクトディレクトリ内の。

    scrapy crawl spidername -o items.json -t json 
    
    • -o

    scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv

    • --set(items.json)
    • -t項目(JSON)をダンプするためのフォーマットを指定するダンプ項目の出力ファイル名をされている指定設定を設定/上書きするために使用されます
    • FEED_URIは、アイテムのダンプ用にストレージバックエンドを設定するために使用されます。この例では、ローカルファイルシステム、すなわち単純な出力ファイルを使用している "output.csv"に設定されています(現在の例 - output.csv)
    • FEED_FORMATは、(出力)フィードのシリアル化フォーマットを設定するために使用されますつまり、(現在の例のcsv用)

    参考文献(Scrapyのドキュメント):

    1. Available tool commands (for the command line)
    2. Feed exports
    +0

    最初の行なら、2行は等価です。 'item.json'を' output.csv'に、 'json'を' csv'に変更しますか? – Stephen

    +2

    それは正しいです。あるいは、FEED_URIとFEED_FORMATをsettings.pyファイルに追加して、他のパラメータを使わずに 'scrapy crawl spidername'と入力するだけです。 – Talvalin

    +1

    質問に回答がある場合は、この回答を受け入れるか、回答を改善するためにできることがあれば教えてください。 :) – Talvalin

    関連する問題