2012-02-10 3 views
0

Может ли кто-нибудь предложить любые хорошие библиотеки для браузера PHP/spider/crawler/http/file на базе cURL.?Библиотека браузера PHP (возможно, с curl)

Я просто хочу, чтобы иметь инструмент для загрузки содержимого из URL-адресов, как я хотел бы сделать с implode('', file(url)) или file_get_contents(), но она должна поддерживать тайм-ауты, ответы HTTP кода, пользовательские заголовки и т.д.

завитка удивительный, я я использовал его некоторое время в функции, которую я создал, но я хочу инкапсулированную стороннюю библиотеку. Конечно, должно быть такое .. Я сделал поиск, но я не мог найти то, что хотел.

+0

Какие функции вы ищете в этой «библиотеке браузера» – motto

+0

Достаточно просто 'fetchURL()' с возможностью пропуска заголовков и установить таймаут. –

ответ

0

я написал свое собственное довольно приличные функции, используя Скручивание http://pastebin.com/4CPaCfMm

Это работает, но я только что я мог бы найти более продвинутый инструмент ООП, который я мог бы использовать в своих проектах, что бы получить обслуживание и Furthur развитого - библиотека.

0

Вы можете попробовать http://simplehtmldom.sourceforge.net/ Является php-библиотекой для парсинга/загрузки содержимого.

+0

Нет, это просто парсер DOM, а не загрузчик. –

+0

Вы не поняли, что simplehtmldom анализирует возвращаемое содержимое, которое вызывается с помощью '$ html = file_get_html ('http://www.google.com/');' <- это то, что мне нужно, сборщик». –

+0

вы можете скачать изображения с этим парсером – elo

0

Я использовал PHPCrawl для моего веб-гусеничного проекта. Это чисто автономная библиотека, без зависимости от cURL.

Он предоставляет функции для рекурсивного скачивания содержимого данного URL-адреса и поддержки соответствия шаблонов и таймаута. Затем вы можете делать все, что захотите, с помощью полученного URL-адреса. О да, он может дать вам статус ответа HTTP. Но не обязательно для пользовательских заголовков.

Смежные вопросы