2015-06-19 4 views
1

Я использую scrapy для сбора некоторых писем от craiglist, и когда я запускаю его, он возвращает пустую строку в CSV-файле. Я могу извлечь название, тег и ссылку. Проблема заключается только в электронной почте. Вот код:Scrapy не собирает данные

# -*- coding: utf-8 -*- 
import re 
import scrapy 
from scrapy.http import Request 


# item class included here 
class DmozItem(scrapy.Item): 
    # define the fields for your item here like: 
    link = scrapy.Field() 
    attr = scrapy.Field() 
    title = scrapy.Field() 
    tag = scrapy.Field() 

class DmozSpider(scrapy.Spider): 
    name = "dmoz" 
    allowed_domains = ["craigslist.org"] 
    start_urls = [ 
    "http://raleigh.craigslist.org/bab/5038434567.html" 
    ] 

    BASE_URL = 'http://raleigh.craigslist.org/' 

    def parse(self, response): 
     links = response.xpath('//a[@class="hdrlnk"]/@href').extract() 
     for link in links: 
      absolute_url = self.BASE_URL + link 
      yield scrapy.Request(absolute_url, callback=self.parse_attr) 

    def parse_attr(self, response): 
     match = re.search(r"(\w+)\.html", response.url) 
     if match: 
      item_id = match.group(1) 
      url = self.BASE_URL + "reply/nos/vgm/" + item_id 

      item = DmozItem() 
      item["link"] = response.url 
      item["title"] = "".join(response.xpath("//span[@class='postingtitletext']//text()").extract()) 
      item["tag"] = "".join(response.xpath("//p[@class='attrgroup']/span/b/text()").extract()[0]) 
      return scrapy.Request(url, meta={'item': item}, callback=self.parse_contact) 

    def parse_contact(self, response): 
     item = response.meta['item'] 
     item["attr"] = "".join(response.xpath("//div[@class='anonemail']//text()").extract()) 
     return item 
+1

Функция обратного вызова по умолчанию при запуске с 'start_urls' является' parse() ', а не' parse_contact() '. Кроме того, в этом URL-адресе, определенном в 'start_urls', нет сообщений электронной почты, поэтому ваш xpath ничего не соответствует. Прочитали ли вы [Учебник по Scrapy] (http://doc.scrapy.org/en/latest/intro/tutorial.html)? Эти вещи объясняются там. – bosnjak

+0

Этот код работал для меня до сих пор, но последние два дня кажется, что что-то изменилось на craiglist. Можете ли вы добавить рабочий код? Заранее спасибо –

+0

@ArkanKalu вам необходимо предоставить полный код вашего паука. – alecxe

ответ

1

Прежде всего, вы имели в виду, чтобы иметь start_urls на странице каталога: http://raleigh.craigslist.org/search/bab.

Кроме того, из того, что я понимаю, дополнительный запрос на получение электронного сообщения должен быть отправлен в reply/ral/bab/ вместо reply/nos/vgm/.

Кроме того, если нет атр группы, вы получаете сообщение об ошибке на следующей строке:

item["tag"] = "".join(response.xpath("//p[@class='attrgroup']/span/b/text()").extract()[0]) 

Замените его:

item["tag"] = "".join(response.xpath("//p[@class='attrgroup']/span/b/text()").extract()) 

полный код, который работал для меня:

# -*- coding: utf-8 -*- 
import re 
import scrapy 


class DmozItem(scrapy.Item): 
    # define the fields for your item here like: 
    link = scrapy.Field() 
    attr = scrapy.Field() 
    title = scrapy.Field() 
    tag = scrapy.Field() 


class DmozSpider(scrapy.Spider): 
    name = "dmoz" 
    allowed_domains = ["raleigh.craigslist.org"] 
    start_urls = [ 
     "http://raleigh.craigslist.org/search/bab" 
    ] 

    BASE_URL = 'http://raleigh.craigslist.org/' 

    def parse(self, response): 
     links = response.xpath('//a[@class="hdrlnk"]/@href').extract() 
     for link in links: 
      absolute_url = self.BASE_URL + link 
      yield scrapy.Request(absolute_url, callback=self.parse_attr) 

    def parse_attr(self, response): 
     match = re.search(r"(\w+)\.html", response.url) 
     if match: 
      item_id = match.group(1) 
      url = self.BASE_URL + "reply/ral/bab/" + item_id 

      item = DmozItem() 
      item["link"] = response.url 
      item["title"] = "".join(response.xpath("//span[@class='postingtitletext']//text()").extract()) 
      item["tag"] = "".join(response.xpath("//p[@class='attrgroup']/span/b/text()").extract()) 
      return scrapy.Request(url, meta={'item': item}, callback=self.parse_contact) 

    def parse_contact(self, response): 
     item = response.meta['item'] 
     item["attr"] = "".join(response.xpath("//div[@class='anonemail']//text()").extract()) 
     return item 
+0

Спасибо, код работает отлично! Как я могу ограничить scrapy для извлечения 50 строк? –

+0

@ArkanKalu Добро пожаловать, давайте не будем решать новые проблемы в комментариях, подумайте о создании отдельного вопроса, если у вас есть трудности. Благодарю. – alecxe

Смежные вопросы