2014-12-23 2 views
2

Я понимаю проблемы/ограничения в области глубокого подкачки в Solr и что некоторые новые функции реализуются. Я пытаюсь выполнить глубокую подкачку очень больших наборов результатов (например, более 100 миллионов документов), используя отдельное проиндексированное поле (целое число), в которое я вставляю случайную переменную (между 0 и некоторым известным MAXINT). Когда вы запрашиваете большие результирующие наборы, я выполняю начальный запрос поля без возвращаемых строк, а затем на основе подсчета, я делю диапазон 0 на MAXINT, чтобы получить средние результаты PAGE_COUNT, выполнив запрос снова в поддиапазоне случайную переменную и захват всех строк в этом диапазоне. Очевидно, что фактическое количество строк будет меняться, но оно должно следовать предсказуемому распределению.Solr paging 100 миллионов Результирующий набор документов

Я хочу знать - кто-нибудь сделал это в масштабе? Должно ли это работать? Я расскажу о своих выводах, но захотел создать закладку в stackoverflow для этой проблемы.

+0

См [SolrCloud: обходной путь для классической пагинации с «начинается, строками» параметры] (http://stackoverflow.com/questions/25306028/solrcloud -workaround-в-классической пагинация-с-Start-строка-параметры/25307700 # 25307700) – MatsLindh

ответ