Я ползаю около 20 миллионов URL. Но до того, как запрос действительно сделан, процесс убивается из-за чрезмерного использования памяти (4 ГБ ОЗУ). Как я могу справиться с этим в процессе лечения, чтобы процесс не убивали?Как обрабатывать большое количество запросов в scrapy?
class MySpider(Spider):
name = "mydomain"
allowed_domains = ["mydomain.com"]
urls = []
for d in range(0,20000000):
link = "http://example.com/"+str(d)
urls.append(link)
start_urls = urls
def parse(self, response):
yield response
Что такое выходы scrap ошибки? – eLRuLL
Просто «убил» через некоторое время. Я отслеживал использование памяти и видел, когда доступная память сокращается до 100 мб или меньше, она просто убивается. – Rahul
было бы полезно, если бы вы делились журналами. – eLRuLL