Я столкнулся с проблемой во время работы над проектом. Я хочу «сканировать» определенные интересующие сайты и сохранять их как «полную веб-страницу», включая стили и изображения, чтобы создать для них зеркало. Мне приходилось несколько раз добавлять закладки на сайт, чтобы прочитать его позже, и через несколько дней сайт был недоступен, потому что он был взломан, и у владельца не было резервной копии базы данных.Сохранить полную веб-страницу
Конечно, я могу читать файлы с php очень легко с помощью fopen("http://website.com", "r")
или fsockopen()
, но главная цель - сохранить полные веб-страницы, поэтому на случай, если он снизится, он все равно может быть доступен другим, как «время программирования» машина ":)
Есть ли способ сделать это без чтения и сохранения каждой ссылки на странице?
Решения Objective-C также приветствуются, так как я также пытаюсь выяснить его.
Спасибо!