0

Я попытался нормализовать свои данные методом Sklearn и MinMaxScaler (0.1, 1) Но результат очень разочарован. Без нормализации MinMax у меня была 78% точности по моей проблеме, и с минимальной нормировкой она упала до 71%. Знаете ли вы, что может быть проблемой?Нормализация приводит к плохим результатам для mlp

Моя форма данных: [n_samples] [1D_vector_of_values]

Вот как я использую sklearn для нормализуют:

scaler = MinMaxScaler(feature_range=(0.1,10)) 
X = np.array(X) 
X_test = np.array(X_test) 
X = scaler.fit_transform(X) 
X_test = scaler.fit_transform(X_test) 

Спасибо за помощь!

ответ

1

Это не всегда так, что нормализация даст вам хороший результат без вас, поскольку вы теряете некоторые данные, применяя этот метод дискриминации. все зависит от характера данных.

Я бы попытался реализовать стандартизацию вместо нормализации диапазона, но будьте осторожны, чтобы использовать ту же самую стандартную партию для тестирования и проверки. вы не предоставили нам больше информации о ваших данных, но я все равно прошу вас реализовать выбор функции после нормализации/стандартизации.

+0

Привет, спасибо за ваш ответ! Я использую набор данных из kaggle по кредиту. У них есть форма [возраст, пол, годовой доход, ежемесячный счет, ...]. Всего 10 полей. Есть ли способ определить, когда должна применяться нормализация? А что такое нормализация интереса к нормализации? Для выбора функции, поскольку я использую нейронную сеть, nn должен делать это сам по себе, нет? Спасибо! –

+0

вот ссылка объясняет разницу. http://www.benetzkorn.com/2011/11/data-normalization-and-standardization/ Как вы сказали, возможно, важно сохранить все функции. конечно, NN не может выполнить эту работу за вас. это ваша работа по созданию функций, которые помогут построить лучшую модель. – Feras