возможно в сценарии bash сделать что-то вроде получения содержимого веб-страницы в качестве браузера с помощью lynx хранить его в переменной (фактически только в одном сетевом доступе к странице) и затем делать много grep для извлечения информации?Использование lynx в оболочке, сохранение дампа для дальнейшего grep
я пытался что-то вроде:
content="$(lynx -dump -nolist $url')"
var1=`cat "$content" | grep myre1`
var2=`cat "$content" | grep myre2`
но я запутался между ассигнациями, используя кавычки, обратные кавычки и так далее.
если кто-то есть другое решение без рыси: я ищу что-то вроде lynx --dump
, который «браузер вида рендеринга» (и не wget
) и желательно бы избежать создания файла на системе (или, если это является единственным решением, как может я продолжить, чтобы удалить этот временный файл?)
спасибо и и наилучшими пожеланиями
ли не раньше, чем знать о рыси. Спасибо :) –
'lynx -dump' - отличная возможность, также подумайте о' lynx -useragent = "Mozilla/5.0", который может быть полезен ... я не знаю, есть ли другие альтернативы для просмотра веб-страниц в "человеческих «текстовый режим так легко. – user1340802
у вас есть бродячая одиночная цитата после $ url – msouth