ответ

1

Вы можете прочитать эту страницу на sklearn: adaboost. Мне лично нравится складывать XGboost, GBM, RandomForest и ExtraTree в качестве базовых моделей и укладывать их, чтобы получить лучшую оценку auc.

+0

Если вы хотите складывать или смешивать несколько базовых оценок, вы можете проверить этот модуль на github: [обобщенное обобщение] (https://github.com/andreashsieh/stacked_generalization). Этот модуль был разработан dustinstansbury, и я сделал патч для него, чтобы код работал лучше. –

+0

Я использую adaboost для регрессии, поэтому этот модуль может не помочь мне – modkzs

+0

@AndreasHsieh: как вы складываете разные алгоритмы? – Alex

Смежные вопросы