У меня несколько пауков, работающих в нескольких экземплярах (4) параллельно. Все они используют почти 100% -ный процессор.Heavy CPU Usage by scraw crawler
Я развернул их, используя scrapyd. Попытался изменить настройки scrapyd, такие как max_concurrent_requests, CONCURRENT_REQUESTS, CONCURRENT_REQUESTS_PER_DOMAIN, до минимума, но не повезло.
Я использую Python 2.7.5 и Scrapy 0,24
Я гугле для решения и нашел эту страницу
https://groups.google.com/forum/#!topic/scrapy-users/Rgq07ldcoPs
Я не мог получить их решения
Заранее спасибо
спасибо за подсказку !, похоже, что я делаю ту же ошибку. Я попробую установить какую-то пакетную вставку – eLRuLL