Ok, так что я знаю, я могу использовать:Использование Wget и хрон для загрузки веб-страниц
wget -r <website> > <file>
, чтобы получить веб-страницы и сохранить его. Мой вопрос: как использовать cron и wget для получения веб-страницы по часовой или даже минутной основе, а затем сохранить их в папку, zip и tarball, а затем продолжить добавлять к ней для обзора на более позднюю дату ,
Я знаю, что могу это сделать вручную, моя цель - загрузить его в основном через 10-20 минут, примерно на 4 часа (не имеет значения, если он идет дольше) и добавьте все в хороший каталог, затем нажмите zip указанную директорию, чтобы сохранить пространство, и проверить их позже в тот же день.
Можете ли вы объяснить немного больше о том, что ваш конечный результат? Во-первых, '-r' означает, что вы хотите сохранить более одной страницы - это то, что вы хотите или нет? Если это так, вы не должны указывать «веб-страницу», но «веб-страницу ** s **», чтобы быть понятной. Я возьму одну страницу. Таким образом, вы загружаете страницу, например, 10 утра, 11 утра и 12 вечера - что бы вы хотели иметь - набор файлов ('wp-10am.htm',' wp-11am.htm', 'wp-12pm.htm') или что-то другое? –
Что-то, я в основном общался с wget в первый раз, кроме захвата некоторых быстрых файлов. –
В основном, что я хочу сделать, это регулярно собирать веб-страницу и сохранять ее как индекс.