По мнению авторов в 1, 2 и 3, Напомним процент соответствующих элементов, выбранных из всех соответствующих элементов в хранилище, в то время как Precision - это процент релевантных элементов из тех элементов, которые выбраны по запросу.Напомним, Напомним, скорость @ K и точность в топ-K рекомендации
Поэтому, предполагая, что пользователь U получает TOP-к Рекомендуемый перечень предметов, они будут что-то вроде:
Напомним = (Relevant_Items_Recommended в топ- к) / (Relevant_Items)
Точность = (Relevant_Items_Recommended в TOP-к) не / (к _Items_Recommended)
До той части все понятно, но я не понимаю разницу между ними и Напомним скорость @ к. Как будет формула для вычисления скорость отзыва @ k?
Вы прямо ставите @K в вычисление простой точности и отзыва для предсказания рейтинга, что может сбить с толку. Правило простое - если вы пытаетесь измерить только прогноз RATING - используйте простой Precision и Recall в целом рекомендованный результат. Если вы заинтересованы в измерении прогноза РЕЙТИНГ, тогда вас больше интересует, насколько хорошо можно сказать, что топ-5 выполняет (экран первой карусельной рекомендации), затем топ-10 (второй экран) и так далее. Потому что во втором случае вас больше интересует, насколько хорошо ваше решение заказало весь ответ - ранжированные результаты. –
Большое спасибо @ Bartłomiej Twardowski. Итак, просто я уже делал эту ставку @ k? –
Да, если вы усекаете верхний элемент k и вычисляете только p/r. –