Я реализую классификацию с использованием MultiLayer Perceptrons.Метод нормализации для Multi Layer Perceptron
Мне нужно выполнить нормализацию входных данных. Мне было интересно, какой из них лучше подходит для подхода MultiLayer Perceptron. Функция ввода имеют различные диапазоны согласно ниже
feature1 - (0-1) feature2 - (1-100) feature2 - (1-100000) . . .
- Макс-Мин Нормализация: Диапазон (0,1) Активация функции - сигмовидной
normalized_data = (данные-мин)/(макс-мин)
- стандартное отклонение нормализации: Диапазон (-1,1) - Не уверен. Сигмоид будет хорошим выбором. Гиперболический тангенс?
normalized_data = данные среднего/с.о.
Спасибо, Атиша
Функция «Гаусса» - это еще один наиболее подходящий метод нормализации, который пытается учитывать «средний» и «стандартный» распределенных данных. – BlueBit
Спасибо за ваш ответ. Если мы нормализуемся между [-1 1], то следует ли мне изменить свою функцию активации от сигмоида до гиперболического? – alex
«Гиперболическая касательная функция» обеспечивает аналогичное масштабирование функции «sigmoid activation»; однако «функция гиперболической касательной активации» имеет диапазон «[-1 1]». Таким образом, лучше применять гиперболические. Другая идея состоит в том, что, поскольку «функция гиперболической касательной активации» имеет производную характеристику, она также может выдавать выход в диапазоне «[0 1]». – BlueBit