2010-02-04 3 views
0

Я хочу найти автоматизированный способ загрузки всей страницы сайта (а не всего сайта только одной страницы) и всех элементов на странице, а затем суммировать размер этих файлов.Производительность сайта и загрузка

Когда я говорю файлы, я хотел бы узнать общий размер HTML, CSS, изображений, локальных и удаленных JS-файлов и любых фоновых изображений CSS. В основном весь вес страницы для данной страницы.

Я думал об использовании CURL, но не знал, как включить его для захвата удаленных и локальных JS-файлов, а также изображений, на которые ссылаются файлы CSS.

+0

Нужно ли загружать материалы? Или панель инструментов firebug/webdev/Yslow даст вам эту информацию? –

ответ

1

Попробуйте wget:

  • сделать это скачать все необходимые файлы с -p или --page-requisites варианта
  • скачать скрипты и изображения, локальные для сайта и не дальше, чем 2 скачек от (это должно получить местные изображения и код) с -l 2 для --level=2
  • и измените файлы кода для ссылки на ваши локальные файлы вместо исходного пути с помощью -k на --convert-links:
 
    wget -p -l 2 -k http://full_url/to/page.html 
+0

Закрыть, но, похоже, он не захватывает удаленные JS-файлы, такие как Google analytics. – meme

+0

@meme Попробуйте добавить '-r -l 2'. Это на странице man около l.1320 –

+0

, похоже, это работает только для ссылок на локальном сайте, а не удаленных URL-адресов. –

Смежные вопросы