Я написал себе веб-искатель с использованием simplehtmldom и получил процесс обхода, который работает очень красиво. Он сканирует стартовую страницу, добавляет все ссылки в таблицу базы данных, устанавливает указатель сеанса и мета обновляет страницу для перехода на следующую страницу. Это продолжается до тех пор, пока не закончится ссылкаНаписание PHP-искателя с помощью cron
Это прекрасно работает, однако, очевидно, что время сканирования для больших сайтов довольно утомительно. Я хотел бы немного ускорить работу и, возможно, сделать работу cron.
Любые идеи по обеспечению его как можно более быстрого и эффективного, кроме как установить ограничение памяти/время выполнения выше?
Поиск SO или Google для php-профилировщика. Вы можете точно определить, что замедляет все. Оттуда вы можете задать более конкретный вопрос, например: «Как ускорить« file_get_contents() ». –
Я буду использовать это на сайтах, которые я/моя компания строит только для проверки мертвых ссылок, и проверьте, что у всех ссылок есть приличный якорь + заголовок, убедитесь, что на всех страницах есть тег title/h1 и т. Д. – Horse