Я использую Scrapy, чтобы извлечь информацию из website. Это код паука (частичный):Правило для разбивки на страницы в Scrapy
class bsSpider(CrawlSpider):
name = "bsSpider"
def __init__(self, *args, **kwargs):
super(bsSpider, self).__init__(*args, **kwargs)
self.start_urls = [kwargs.get('start_url')]
rules = (Rule (LinkExtractor(allow=('.*\?id1=.*',),restrict_xpaths=('//a[@class="prevNext next"]',)), callback="parse_items", follow= True),)
Основываясь на приведенном выше правиле, следуйте следующим страницам. Теперь, если пользователь хочет предоставить другой start_url для очистки, как динамически обновить приведенное выше правило? Любая помощь будет оценена по достоинству.