2015-12-05 2 views
0

Все, я пытаюсь создать паука, который будет сканировать веб-сайт шердога и дать мне профиль всех бойцов (имя, дата рождения, рост, национальность). Если я запустил паука, он разбирает start_urls в порядке. Проблема заключается в том, что crawlspider не начнет сканирование, поэтому я получаю только два проанализированных элемента. Я прочитал документ, но также новичок в Scrapy, чтобы я мог что-то упустить. Вы хоть понимаете, что? Веб-сайт использует относительный URL-адрес, поэтому я сначала подумал, что это может быть проблемой, но после создания абсолютного URL-адреса он все равно не работал. Я действительно надеюсь, что вы, ребята, можете мне помочь!CrawlSpider только crawls start_urls

class ProfileSpyder(CrawlSpider): 
    name = "Profile" 
    allowed_domains = ["http://www.sherdog.com/fighter/"] 
    start_urls = ["http://www.sherdog.com/fighter/Daniel-Cormier-52311", 
      "http://www.sherdog.com/fighter/Ronda-Rousey-73073"] 

    Rules = (
     Rule(LinkExtractor(allow=('/fighter/')), callback='parse_item', follow=True)  
    ) 

    def parse_item(self, response): 
    #Build absolute urls and sent new requests 
    for href in response.xpath("/html/body/div[3]/div[2]/div[1]/section[2]/div"): 
     url = response.urljoin(href.extract()) 
     yield scrapy.Request(url, callback=self.parse_item)  
    #Parse item      
    item = FighterProfile() 
    item['Name'] = response.xpath('.//section/div/h1/span[@class="fn"]/text()').extract() 
    item['Birthdate'] = response.xpath('.//section/div/div/div/div/div/div/span/span[@itemprop="birthDate"]/text()').extract() 
    item['Height'] = response.xpath('.//section/div/div/div/div/div/div/span[@class="item height"]/strong/text()').extract() 
    item['Nationality'] = response.xpath('.//section[1]/div/div[1]/div[1]/div/div[1]/div[1]/span[2]/strong/text()').extract() 
    yield item 

И журнал:

2015-12-07 18:15:11 [scrapy] INFO: Scrapy 1.0.3 started (bot: ufcfights) 
2015-12-07 18:15:11 [scrapy] INFO: Optional features available: ssl, http11, boto 
2015-12-07 18:15:11 [scrapy] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'ufcfights.spiders', 'FEED_URI': 'items.csv', 'SPIDER_MODULES': ['ufcfights.spiders'], 'BOT_NAME': 'ufcfights', 'USER_AGENT': 'Chrome/46.0.2490.80', 'FEED_FORMAT': 'csv', 'DOWNLOAD_DELAY': 1.0} 
2015-12-07 18:15:12 [scrapy] INFO: Enabled extensions: CloseSpider, FeedExporter, TelnetConsole, LogStats, CoreStats, SpiderState 
2015-12-07 18:15:12 [scrapy] INFO: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, MetaRefreshMiddleware, HttpCompressionMiddleware, RedirectMiddleware, CookiesMiddleware, ChunkedTransferMiddleware, DownloaderStats 
2015-12-07 18:15:12 [scrapy] INFO: Enabled spider middlewares: HttpErrorMiddleware, OffsiteMiddleware, RefererMiddleware, UrlLengthMiddleware, DepthMiddleware 
2015-12-07 18:15:12 [scrapy] INFO: Enabled item pipelines: 
2015-12-07 18:15:12 [scrapy] INFO: Spider opened 
2015-12-07 18:15:12 [scrapy] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 
2015-12-07 18:15:12 [scrapy] DEBUG: Telnet console listening on 127.0.0.1:6023 
2015-12-07 18:15:12 [scrapy] DEBUG: Crawled (200) <GET http://www.sherdog.com/fighter/Daniel-Cormier-52311> (referer: None) 
2015-12-07 18:15:13 [scrapy] DEBUG: Crawled (200) <GET http://www.sherdog.com/fighter/Ronda-Rousey-73073> (referer: None) 
2015-12-07 18:15:14 [scrapy] INFO: Closing spider (finished) 
2015-12-07 18:15:14 [scrapy] INFO: Dumping Scrapy stats: 
{'downloader/request_bytes': 452, 
'downloader/request_count': 2, 
'downloader/request_method_count/GET': 2, 
'downloader/response_bytes': 46874, 
'downloader/response_count': 2, 
'downloader/response_status_count/200': 2, 
'finish_reason': 'finished', 
'finish_time': datetime.datetime(2015, 12, 7, 17, 15, 14, 92000), 
'log_count/DEBUG': 3, 
'log_count/INFO': 7, 
'response_received_count': 2, 
'scheduler/dequeued': 2, 
'scheduler/dequeued/memory': 2, 
'scheduler/enqueued': 2, 
'scheduler/enqueued/memory': 2, 
'start_time': datetime.datetime(2015, 12, 7, 17, 15, 12, 618000)} 
2015-12-07 18:15:14 [scrapy] INFO: Spider closed (finished) 
+0

Вы можете делиться журналами? – eLRuLL

+0

Несомненно! Включил его. Единственное, что выделяется, это часть «игнорирования ссылки». – Argali

ответ

1

Вы не можете переопределить метод parse при использовании CrawlSpider, он использует parse для внутренних правил. Проверьте предупреждение here

Просто измените метод обратного вызова на правила.

+0

Я изменил метод parse для parse_item (3x: callback, def, request) Паук будет запущен, но никакие элементы не будут проанализированы, даже start_urls. Странно, правда? Некоторые другие предложения? Я также обновил журнал. – Argali

+0

Я думаю, что у вас есть опечатка на 'Rules', это должно быть' rules' – eLRuLL

+0

Никогда не видел этого! Однако теперь я получаю следующую ошибку: Файл «C: \ Users \ Jan Willem \ Anaconda \ lib \ site-packages \ scrapy \ spiders \ crawl.py», строка 83, в _compile_rules self._rules = [copy.copy (r) для r в self.rules] exceptions.TypeError: объект «Rule» не итерируется 2015-12-09 21:32:08 [скрученный] КРИТИЧЕСКИЙ: – Argali