Я смущен, что использование активации между скрытыми слоями, я знаю, что функция softmax между скрытыми слоями и выходом сжимает вероятности до [0,1], но что такое использование сигмоидной функции между скрытыми слоями? Функция активации глубокого обучения между скрытыми слоями?
-1
A
ответ
4
Цель состоит в том, чтобы добавить к сети нелинейное поведение, без него количество функций, которые могут быть представлены ниже, и если у вас нет нелинейных функций активации, сеть полностью линейна, что не очень полезно для большинства проблем.
Каждый слой, который добавляет нелинейные активации, также влияет на нелинейное поведение выхода сети. Это одна из причин, по которой добавление большего количества уровней повышает точность, поскольку сеть может лучше представлять различные функции.
1
1.add нелинейное представление в сети.
2.Пожалуйста, используйте Relu, prelu, lrelu вместо сигмоида, tanh, из-за уменьшения проблемы с исчезновением градиента.
Смежные вопросы
- 1. Функция аудио для глубокого обучения
- 2. Можем ли мы использовать методы глубокого обучения в двоичной классификации?
- 3. Mocha, инструмент глубокого обучения
- 4. Инструментарий для глубокого обучения
- 5. Функция активации искусственной нейронной сети
- 6. Weka multi-perceptron с несколькими скрытыми слоями
- 7. Сеть глубокого обучения для классификации
- 8. Обзор для сетей глубокого обучения
- 9. Функция активации NN
- 10. Использование глубокого обучения для последовательных данных
- 11. Как создать сервер обработки глубокого обучения
- 12. Семантическая сегментация с использованием глубокого обучения
- 13. Выбор размера микроавтобуса для глубокого обучения
- 14. Theano MLP с двумя скрытыми слоями бросает Ошибка несоответствия формы
- 15. Cocos2D - Общение между слоями
- 16. Название столкновения между слоями
- 17. Копирование моделей между слоями
- 18. Обнаружение столкновений между слоями
- 19. Использование моделей глубокого обучения от TensorFlow в других языковых средах
- 20. Нейронная сеть и функция активации
- 21. Транзакция между несколькими слоями DAO?
- 22. Синхронизирующие значения валидации между слоями
- 23. Как остановить смешение между слоями?
- 24. CartoDB: Переключение кнопок между слоями
- 25. Передача бинов между разными слоями
- 26. Konva Продвигайте события между слоями
- 27. Настройка инверсии зависимостей между слоями
- 28. Связь между слоями в приложении
- 29. Функция активации нейронной сети R
- 30. Функция активации Anano HiddenLayer
Я хотел бы добавить [Универсальная теорема приближения] (https://en.wikipedia.org/wiki/Universal_approximation_theorem), в которой говорится, что нейронная сеть с хотя бы одним (нелинейным) скрытым слоем (бесконечного размера) может аппроксимирует любую функцию. – Lunaweaver