Лучше ли Neural Network использовать меньший диапазон данных обучения или это не имеет значения? Например, если я хочу обучить ANN с углами (значениями float), я должен передать эти значения в градусах [0; 360] или в радианах [0; 6.28] или, возможно, все значения должны быть нормированы на диапазон [0; 1]? Имеет ли диапазон данных обучения влияние на качество ANN? В моей нейронной сети есть 6 входных нейронов, 1 скрытый слой, и я использую сигмовидную симметричную функцию активации (tanh).Диапазон данных обучения для нейронной сети
ответ
Диапазон данных указывает на то, как вы обучаете модель. Предположим, что диапазон значений для функций в наборе данных не нормирован. Затем, в зависимости от ваших данных, вы можете в конечном итоге иметь удлиненные эллипсы для точек данных в пространстве функций, а обучающая модель будет очень тяжело изучать коллектив, на котором лежат точки данных (изучите базовый дистрибутив). Кроме того, в большинстве случаев точки данных редко распространяются в пространстве признаков, если не нормированы (see this). Итак, сообщение о возврате - это нормализовать функции, когда это возможно.
Для нейронной сети не имеет значения, нормализованы ли данные. Однако эффективность метода обучения может сильно различаться. В двух словах: обычно методы предпочитают переменные, которые имеют более высокие значения. Это может привести к отключению метода обучения.
Важным для большинства методов обучения NN является то, что все измерения учебных данных имеют один и тот же домен. Если все ваши переменные являются углами, это не имеет значения, являются ли они [0,1) или [0,2 * pi) или [0,360), если они имеют один и тот же домен. Однако вам следует избегать наличия одной переменной для угла [0,2 * pi) и другой переменной для расстояния в мм, где расстояние может быть намного больше 2000000 мм.
два случая, когда алгоритм может пострадать в этих случаях:
(а) регуляризация: если Веса NN являются сила малого крошечным изменения веса управляющего входом переменного большого домена имеет гораздо больший эффект, чем для небольшого домена
(b) Градиентный спуск: если размер шага ограничен, у вас есть аналогичные эффекты.
Рекомендация: Все переменные должны иметь тот же размер домена, является ли это [0,1] или [0,2 * pi] или ... не имеет значения.
Дополнение: для многих доменов нормализация «z-score» работает очень хорошо.
- 1. Наборы данных для обучения нейронной сети
- 2. Методология обучения нейронной сети
- 3. обучения нейронной сети набор
- 4. Метод обучения нейронной сети
- 5. данные нейронной сети для обучения и тестирования
- 6. Данные маркировки для обучения нейронной сети
- 7. Тестирование нейронной сети после обучения
- 8. Настройки нейронной сети для быстрого обучения
- 9. torch7 ошибка обучения нейронной сети
- 10. Видео Аннотация для обучения нейронной сети
- 11. Эффективный размер набора данных для обучения нейронной сети для кормления
- 12. как установить скорость обучения для обучения нейронной сети
- 13. Код для тестирования данных в нейронной сети после завершения обучения
- 14. Поиск данных о погоде для обучения нейронной сети
- 15. Обучение нейронной сети с помощью обучения усилению
- 16. Хранение памяти нейронной сети/машинного обучения
- 17. Ответы нейронной сети гарантированы на данные обучения?
- 18. Ошибка нейронной сети с каждым примером обучения
- 19. Оптимизация входных данных нейронной сети
- 20. Как измерить эффективность обучения нейронной сети?
- 21. выбрать скорость обучения в нейронной сети
- 22. Концепция проверки для нейронной сети
- 23. Тренировка нейронной сети для добавления
- 24. Encog - Как загрузить данные обучения для нейронной сети
- 25. Выберите определенные классы MNIST для обучения нейронной сети в TensorFlow
- 26. Стандартизация данных для нейронной сети в R
- 27. Почему мы используем регуляризацию для обучения нейронной сети?
- 28. Как установить целевой вектор для обучения изображений в нейронной сети?
- 29. Как отформатировать комплекты обучения/тестирования для нейронной сети Deep Belief
- 30. Номинальные значения для нейронной сети