У меня есть локальный файл HTML, ссылающийся на данные изображения и стиля в разных местах локальной файловой системы. Я хотел бы получить список всех файлов с ссылками; или, альтернативно, команду, которая скопирует файлы HTML и все указанные файлы в какое-либо ясное место (с или без изменения ссылок в файле HTML), чтобы я мог создать автономный ZIP-файл на странице HTML.wget --page-реквизиты локально?
Похоже, что wget обеспечивает хорошую поддержку для загрузки HTML-файла, включая все предварительные требования (изображения, стили), используя флаг --page-requisites
. К сожалению, он не поддерживает URL-адрес file://
.
Какие у меня варианты?
Wget не поддерживает протоколы HTTP, HTTPS и FTP. Итак, у вас есть 3 варианта: 1.Чтобы разоблачить свои файлы с помощью FTP, загрузите все. 2. Чтобы изменить источник wget и выполнить обновление. 3. Измените инструмент, который вы используете, попробуйте http://www.httrack.com/, поможет ли он вам idk? :) – user1759572
Использование другого инструмента в порядке, если это бесплатный инструмент командной строки для Linux, желательно упакованный в Debian. –
httrack может работать, хотя, похоже, он настаивает на том, чтобы поместить полный путь к исходному файлу в пути назначения. Альтернативой будет «wget» с временным веб-сервером, например «python -m SimpleHTTPServer», но это шаткое из-за угадывания свободного порта и последующего убийства веб-сервера. –