Я написал скребок, используя scrapy в python. Он содержит 100 start_urls.Terminate Scrapy, если условие выполнено
Я хочу завершить процесс скребков после выполнения условия. т. Е. Прекращается очистка определенного div. По окончании я имею в виду, что он должен прекратить соскабливать все URL-адреса.
Можно
Возможный дубликат: http://stackoverflow.com/questions/4448724/force-my-scrapy-spider-to-stop-crawling –
Возможно, вы посмотрите на ['CloseSpider' Exception] (http: // doc.scrapy.org/en/latest/topics/exceptions.html#closespider), но запросы, которые все еще выполняются (HTTP-запрос отправлен, ответ еще не получен) все равно будет проанализирован. Однако новый запрос не будет обработан. –
@paultrmbrth получает следующую ошибку при использовании этого: raise CloseSpider ('bandwidth_exceeded') exceptions.NameError: глобальное имя «CloseSpider» не определено – user2129794