2016-12-27 3 views
-3

Я должен скачать (например, 1000) случайные статьи из Википедии, а затем с помощью Html Agility Pack, удалить из html-файлов/строк, удалить все теги html/scripts. Как я могу скачать его? Имеет ли эта библиотека какой-либо инструмент для загрузки статей с www? Спасибо за помощьКак я могу загружать статьи с сайтов?

ответ

1

Использование может использовать WebClient. Например:

var site = new System.Net.WebClient().DownloadString("http://google.com"); 
+0

да, но я должен загрузить 1000 статей из Википедии. Например: Мне необходимо скачать статью по адресу: https://en.wikipedia.org/wiki/Sport и мне необходимо скачать статью: https://en.wikipedia.org/wiki/Basketball Случайные 1000 статей , – srzeppa

0

Вы можете написать инструмент гусеничный захватить 1000 URLs в википедии и использовать этот HtmlWeb в HtmlAgilityPack:

string Url = "http://something"; 
HtmlWeb web = new HtmlWeb(); 
HtmlDocument doc = web.Load(Url); 
Смежные вопросы