У меня есть сервер web.py, который отвечает на различные запросы пользователей. Одна из этих запросов включает загрузку и анализ серии веб-страниц.Python: простая асинхронная загрузка содержимого URL-адреса?
Есть ли простой способ настроить механизм загрузки URL-адресов на основе async/callback в web.py? Низкое использование ресурсов особенно важно, поскольку каждый инициированный пользователем запрос может привести к загрузке нескольких страниц.
Поток будет выглядеть следующим образом:
запроса пользователя -> web.py -> Скачать 10 страниц в параллельных или асинхронно -> Анализ содержания, возвращение результатов
Я признаю, что Twisted бы хороший способ для этого, но я уже в web.py, поэтому меня особенно интересует то, что может поместиться в web.py.
У меня есть несколько исправления ошибок для кода asynchttpclient. Я попробовал переслать автора, но он, похоже, не вокруг. Если вам нужны эти исправления, вы можете написать мне по электронной почте. Я также включил HTTP-конвейерную обработку запросов, что должно дать дополнительный импульс для многих небольших запросов. – dhruvbird
Вы можете найти исправления ошибок и расширения для клиента asynchttp здесь: http://code.google.com/p/asynhttp/ – dhruvbird