У меня есть два классификатора для набора данных мультимедиа. Один для визуального материала и один для текстового материала. Я хочу объединить предсказания этих классификаторов, чтобы сделать окончательное предсказание. Я читал о мешках, наращивании и укладке ансамблей, и все это кажется полезным, и я хотел бы попробовать их. Тем не менее, я могу только найти довольно теоретические примеры для моей конкретной проблемы, ничего конкретного для меня, чтобы понять, как реально реализовать его (в python с scikit-learn). Мои два классификатора используют 10 KFold CV с классификацией SVM. Оба выводят список из n_samples = 1000
с прогнозами (1 или 0). Кроме того, я заставил их составить список вероятностей, на которых предсказания основаны, глядя, как это:Sklearn: Как создать ансамбль для двух бинарных классификаторов?
[[ 0.96761819 0.03238181]
[ 0.96761819 0.03238181]
....
[ 0.96761819 0.03238181]
[ 0.96761819 0.03238181]]
Как бы я идти об объединении их в ансамбле. Что я должен использовать в качестве входных данных? Ive попытался объединить предсказания лейбла по горизонтали и ввести их как функции, но не повезло (то же самое для вероятностей).
Заранее благодарен!
Да, но это требует от меня предоставления классификаторов в качестве входных данных, правильно? У меня уже есть предсказания, результаты классификаторов. Поэтому я искал способ построить ансамбль из этого. Я понимаю, что это зависит от ансамбля, который я хочу реализовать, но на данный момент я даже не могу создать ни одного. – Lexxxxx
Да, в этом суть метаклассификатора: использование различных классификаторов для улучшения прогнозов. Если вы хотите представить прогнозы как входные данные, вам придется использовать простой алгоритм обучения (например, классификатор), а не ансамблевый метод, потому что вы не являетесь ансамблевыми алгоритмами. –
Ах, хорошо, это имеет смысл. Вы бы рекомендовали использовать ансамбли, а не то, что я пытаюсь сделать? – Lexxxxx