Я начал исследовательский проект, захватывая страницы, используя wget с локальными ссылками и опциями зеркала. Я сделал это таким образом в то время, чтобы получить данные, поскольку я не знал, как долго будут активны сайты. Таким образом, у меня есть 60-70 сайтов, полностью отраженных локализованными ссылками, которые находятся в директории. Теперь мне нужно просветить то, что я могу от них.используя красивый суп на местном уровне
Есть ли хороший пример анализа этих страниц с помощью beautifulsoup? Я понимаю, что beautifulsoup предназначен для получения запроса http и анализа оттуда. Я буду честен, я еще не разбираюсь в beautifulsoup, и мои навыки программирования не удивительны. Теперь, когда у меня есть время посвятить этому, я хотел бы сделать это простым способом против ручного способа.
Может ли кто-нибудь указать мне на хороший пример, ресурс или учебник для разбора html, который я сохранил? Я очень ценю это. Я передумал это?
Также проверьте Scrapy. – Shubham