Вот несколько альтернативных методов для Selenium RC. Это не чистые решения Selenium, они позволяют взаимодействовать с вашими структурами данных языка программирования и Selenium.
Вы также можете получить источник HTML-страницы, а затем регулярное выражение источника, чтобы вернуть набор ссылок. Используйте группировку регулярных выражений, чтобы разделить URL-адреса, текст/ID ссылки и т. Д., И затем вы можете передать их обратно в селен, чтобы щелкнуть или перейти к.
Еще один способ - получить исходный HTML-файл или innerHTML (через локаторы DOM) родительского/корневого элемента, а затем преобразовать HTML в XML как объект DOM на ваш язык программирования. Затем вы можете пересечь DOM с помощью желаемого XPath (с регулярным выражением или нет) и получить узел узлов только интересующих ссылок. Из их разборьте текст/ID ссылки или URL, и вы можете вернуться к селену, чтобы щелкнуть или перейти к.
По запросу я приведу примеры ниже. Это смешанные языки, поскольку почта, по-видимому, не была языковой спецификой. Я просто использую то, что у меня было для взлома, для примера. Они не полностью протестированы или протестированы вообще, но я работал с битами кода раньше в других проектах, поэтому они являются доказательством примеров кода концепции того, как вы будете реализовывать решения, о которых я только что упомянул.
//Example of element attribute processing by page source and regex (in PHP)
$pgSrc = $sel->getPageSource();
//simple hyperlink extraction via regex below, replace with better regex pattern as desired
preg_match_all("/<a.+href=\"(.+)\"/",$pgSrc,$matches,PREG_PATTERN_ORDER);
//$matches is a 2D array, $matches[0] is array of whole string matched, $matches[1] is array of what's in parenthesis
//you either get an array of all matched link URL values in parenthesis capture group or an empty array
$links = count($matches) >= 2 ? $matches[1] : array();
//now do as you wish, iterating over all link URLs
//NOTE: these are URLs only, not actual hyperlink elements
//Example of XML DOM parsing with Selenium RC (in Java)
String locator = "id=someElement";
String htmlSrcSubset = sel.getEval("this.browserbot.findElement(\""+locator+"\").innerHTML");
//using JSoup XML parser library for Java, see jsoup.org
Document doc = Jsoup.parse(htmlSrcSubset);
/* once you have this document object, can then manipulate & traverse
it as an XML/HTML node tree. I'm not going to go into details on this
as you'd need to know XML DOM traversal and XPath (not just for finding locators).
But this tutorial URL will give you some ideas:
http://jsoup.org/cookbook/extracting-data/dom-navigation
the example there seems to indicate first getting the element/node defined
by content tag within the "document" or source, then from there get all
hyperlink elements/nodes and then traverse that as a list/array, doing
whatever you want with an object oriented approach for each element in
the array. Each element is an XML node with properties. If you study it,
you'd find this approach gives you the power/access that WebDriver/Selenium 2
now gives you with WebElements but the example here is what you can do in
Selenium RC to get similar WebElement kind of capability
*/
Так что же не работает и каким образом он не работает? Можете ли вы разместить HTML (или его фрагмент), с которым вы согласны? –
@Paul, данный пример и метод get_attribute() возвращает только один элемент, а не список. Плакат спрашивает, что эквивалентно для возврата списка атрибутов, например. – David