2017-04-13 9 views
0

私は、MySQLデータベースからURLを取得し、それらのURLをスクラップするstart_urlsとして使用し、スクラップしたページから新しいリンクをいくつでも取得します。パイプラインを設定してstart_urlとscraped URLの両方を新しいDBに挿入するとき、またはWHERE条件としてstart_urlを使用して既存のDBをUPDATEするようにパイプラインを設定すると、SQL構文エラーが発生します。Scrap Pipeline SQL構文エラー

私はちょうどどちらかをINSERTするとき、私はエラーを取得しません。ここで

import MySQLdb 
import MySQLdb.cursors 
import hashlib 
from scrapy import log 
from scrapy.exceptions import DropItem 
from twisted.enterprise import adbapi 
from youtubephase2.items import Youtubephase2Item 

class MySQLStorePipeline(object): 
    def __init__(self): 
     self.conn = MySQLdb.connect(user='uname', passwd='password', db='YouTubeScrape', host='localhost', charset="utf8", use_unicode=True) 
     self.cursor = self.conn.cursor() 

    def process_item(self, item, spider): 
     try: 

      #self.cursor.execute("""UPDATE SearchResults SET NewURL = %s WHERE ResultURL = %s VALUES (%s, %s)""",(item['newurl'], item['start_url'])) 
      #self.cursor.execute("""UPDATE SearchResults SET NewURL = %s WHERE ResultURL = %s""",(item['newurl'], item['start_url'])) 
      self.cursor.execute("""INSERT INTO TestResults (NewURL, StartURL) VALUES (%s, %s)""",(item['newurl'], item['start_url'])) 
      self.conn.commit() 


     except MySQLdb.Error, e: 
      log.msg("Error %d: %s" % (e.args[0], e.args[1])) 

     return item 

一番上のSQL文のリターンにこのエラーを実行するすべての3つのself.cursor.execute文を示しpipeline.py spider.pyここ

import scrapy 
import MySQLdb 
import MySQLdb.cursors 
from scrapy.http.request import Request 

from youtubephase2.items import Youtubephase2Item 

class youtubephase2(scrapy.Spider): 
    name = 'youtubephase2' 

    def start_requests(self): 
     conn = MySQLdb.connect(user='uname', passwd='password', db='YouTubeScrape', host='localhost', charset="utf8", use_unicode=True) 
     cursor = conn.cursor() 
     cursor.execute('SELECT resultURL FROM SearchResults;') 
     rows = cursor.fetchall() 

     for row in rows: 
      if row: 
       yield Request(row[0], self.parse, meta=dict(start_url=row[0])) 
     cursor.close() 

    def parse(self, response): 
     for sel in response.xpath('//a[contains(@class, "yt-uix-servicelink")]'): 
      item = Youtubephase2Item() 
      item['newurl'] = sel.xpath('@href').extract() 
      item['start_url'] = response.meta['start_url'] 
      yield item 

されている。

2017-04-13 18:29:34 [scrapy.core.scraper] ERROR: Error processing {'newurl': [u'http://www.tagband.co.uk/'], 
'start_url': u'https://www.youtube.com/watch?v=UqguztfQPho'} 
Traceback (most recent call last): 
File "/usr/local/lib/python2.7/dist-packages/twisted/internet/defer.py", line 653, in _runCallbacks 
current.result = callback(current.result, *args, **kw) 
File "/root/scraping/youtubephase2/youtubephase2/pipelines.py", line 18, in process_item 
self.cursor.execute("""UPDATE SearchResults SET AffiliateURL = %s WHERE ResultURL = %s VALUES (%s, %s)""",(item['affiliateurl'], item['start_url'])) 
File "/usr/lib/python2.7/dist-packages/MySQLdb/cursors.py", line 159, in execute 
query = query % db.literal(args) 
TypeError: not enough arguments for format string 

途中のSQL実行文は、このエラーを返します。

2017-04-13 18:33:18 [scrapy.log] INFO: Error 1064: You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ') WHERE ResultURL = 'https://www.youtube.com/watch?v=UqguztfQPho'' at line 1 
2017-04-13 18:33:18 [scrapy.core.scraper] DEBUG: Scraped from <200 https://www.youtube.com/watch?v=UqguztfQPho> 
{'newurl': [u'http://www.tagband.co.uk/'], 
'start_url': u'https://www.youtube.com/watch?v=UqguztfQPho'} 

最後のSQL実行ステートメントは、新しいデータベースにINSERTを使用している場合でも、同じエラーを返します。余分な一重引用符を追加するようだ。最後のアイテムは、アイテムをデータベースに1つだけINSERTするときに機能します。

2017-04-13 18:36:40 [scrapy.log] INFO: Error 1064: You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near '), 'https://www.youtube.com/watch?v=UqguztfQPho')' at line 1 
2017-04-13 18:36:40 [scrapy.core.scraper] DEBUG: Scraped from <200 https://www.youtube.com/watch?v=UqguztfQPho> 
{'newurl': [u'http://www.tagband.co.uk/'], 
'start_url': u'https://www.youtube.com/watch?v=UqguztfQPho'} 

ごめんなさい。徹底的にしようとしています。

答えて

0

私はこれを理解しました。この問題は、MySQL実行パイプラインにリストを渡していたという事実と関係しています。

リストを ".join"(アイテム['newurl'])の文字列に変換し、MySQLパイプラインを起動する前にアイテムを返すパイプラインを作成しました。

[newurl] = sel.xpath( '@ href')。spider.pyのextract()行を使ってリスト内の最初の項目を抽出するか、テキストにはパイプラインが私のために働いた。

+0

はい、最初の要素を選択するためのより慣れた方法があります: 'item ['newurl'] = sel.xpath( '@ href')。extract_first()' –

+0

まあ、私は愚かだと感じます。私はこれを以前に使っていましたが、このケースでは簡単な解決策にはならないと気づいていませんでした。ありがとう。 – SDailey

+0

愚かな気分にしないでください。この情報が見つからない場合は、セレクタのドキュメントを改善することができます(https://docs.scrapy.org/en/latest/topics/selectors.htmlを読んでいることを前提としています) –