0

с использованием RandomForest алгоритма регрессии я нашел в iternet, чем после того, как предсказывает они нормализуют предсказанные результаты, значит, мы предполагаем, что результат предданных после предсказания РФ

ПРЕД = ПРЕД = ПРЕД * (np.exp (- pred/100) * 2 + 1)

У вас есть идея, почему нормализовать результаты предсказания и почему эта формула и какая нормализация прогнозируемых результатов может быть выполнена?

ответ

1

Вкратце: не делайте такую ​​случайную вещь.

Подробный ответ: Нет причин для выполнения любой постобработки «фиксированного уравнения». Единственная причина применения f (x) к вашим прогнозам - , если вы применили f^-1 (x) до обучения. Другими словами - если вы каким-то образом трансформировали свои данные перед обучением, вам нужно применить обратное преобразование к предсказанию, чтобы вернуться в исходное пространство.

Чтобы показать, насколько бесполезно предоставленное уравнение, рассмотрим проблему регрессии с отрицательными выходами, например befween -10000 и 0. Предположим, что ваша модель не идеальна и предсказывает -9900 вместо -10000, в соответствии с этим " правило "вы получаете (-9900) * (np.exp (- (- 9900)/100) * 2 + 1), что является чем-то вроде линий -200 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 (-2e47).

+0

Извините, я не очень хорошо понял ваш ответ, но если мы предположим, что результат -9900 не будет равен -2e47, потому что мы умножаем на exp (-предсказуемый), а не exp (--predicted), я тестирую его и результат с этой формулой лучше, я не знаю, почему –

+0

вы используете exp (-predicted), предсказанный -9900, поэтому вы получаете exp (9900), вот как работает математика, если вы поместили «-» по ошибке в ваш пример, то просто измените мой контрпример на предсказание 9900, и произойдет то же самое. – lejlot

Смежные вопросы