2013-10-04 4 views
0

Мне нужно сделать Веб-сканирование запросов и довести ответы до конца и быстро, если это возможно.Python Crawling - запросы быстрее

Я исхожу из языка Java. Я использовал две «рамки» и не полностью удовлетворил свои намерения.

Jsoup имел запрос/ответ быстрые, но носил неполные данные, когда страница была много информации. Apache HttpClient был точно противоположным, надежным данным, но очень медленным.

Я просмотрел некоторые модули Python, и я тестирую Scrapy. В моих поисках я не смог сделать вывод, является ли это самым быстрым и приводит данные последовательно, или есть некоторые другие, более сложные, даже более подробные или сложные.

Во-вторых, Python является хорошим языком для этой цели?

Заранее спасибо.

ответ

5

+1 голосов за Scrapy. В течение последних нескольких недель я писал гусеницы массовых автомобильных форумов, и Scrapy абсолютно невероятна, быстра и надежна.

+0

Спасибо @Tommy, помогает мне ваше мнение. – raul

0

ищет что-то, чтобы «делать запросы и доводить ответы до конца и быстро» не имеет смысла.

A. Любая библиотека HTTP даст вам полные заголовки/теги, на которые отвечает сервер.

B. Как «быстрый» веб-запрос происходит, как правило, определяется вашим сетевым соединением и временем ответа сервера, а не клиентом, который вы используете.

поэтому с этими требованиями, все будет сделано.

проверить requests упаковка. Это отличная клиентская клиентская библиотека для Python.

+0

Спасибо за ответ. Быть практичным: дело в том, что библиотека значительно быстрее, чем другая. В своей внутренней реализации он может установить приоритетность данных, а не обеспечивать быструю отдачу. Что мне нужно знать, если есть тот, у которого есть хороший баланс. Меня интересует ваша ссылка, возможно, опубликует ее снова, пожалуйста? – raul

+0

возможно http://docs.python-requests.org – furas

+0

Даже если бы этого не было, мне понравилась эта ссылка. Я читаю сейчас, спасибо @furas – raul