Обычно обратное распространение NN имеет проблему исчезновения градиентов. Я обнаружил, что Свернующий NN (CNN) каким-то образом избавляется от этих исчезающих проблем градиента (почему?).Почему предварительная подготовка для сверточных нейронных сетей
Также в некоторых документах для CNN обсуждались некоторые подходы к предварительной обработке. Может ли кто-нибудь объяснить мне следующее?
(1) the resons for pretraining in CNN and
(2) what are the problems/limitations with CNN?
(3) any relavent papers talking about the limitation of CNN?
Заранее спасибо.
как раз в отношении первый пункт. CNN, поскольку другие типы методов глубокого обучения пытаются узнать много узлов и слоев, которые разбавляют силу алгоритма backpropagation. разность ошибок 10% в выходном узле может привести к обновлению 0,000001% в первых слоях. Предварительная подготовка (неконтролируемые методы) не страдает от этих проблем и может быть использована для обновления сети, чтобы иметь значимые веса перед использованием backpropagation для точной настройки (и связывания шаблонов с нашим желаемым результатом). – ASantosRibeiro
попробуйте найти это в перекрестном подтверждении: http://stats.stackexchange.com/search?q=cnn – killogre