Я изучаю сверточные нейронные сети. Я смущен некоторыми слоями в CNN.ReLu и Dropout в CNN
Относительно ReLu ... Я просто знаю, что это сумма бесконечной логистической функции, но ReLu не подключается к каким-либо верхним уровням. Зачем нам нужен ReLu и как он работает?
Отказ от выпадения ... Как работает выпадение? Я слушал видео-разговор от Г. Хинтона. Он сказал, что есть стратегия, которая просто игнорирует половину узлов, случайным образом, при тренировке весов и уменьшает вес при прогнозировании. Он говорит, что он был вдохновлен случайными лесами и работает точно так же, как вычисление геометрического среднего этих случайно обученных моделей.
Является ли эта стратегия такой же, как отказ?
Может ли кто-нибудь помочь мне решить эту проблему?
Очень хороший ресурс - [CVPR 2014 Tutorial о широкомасштабном визуальном распознавании] (https://sites.google.com/site/lsvrtutorialcvpr14/home/deeplearning) от [Marc'Aurelio Ranzato] (http: /www.cs.toronto.edu/~ranzato/). Он вводит и детализирует обе темы. – deltheil
@ deltheil Прошу прощения, но я ничего не могу найти о выпадении в связанной с вами бумаге. Поиск документа для «dropout» возвращает три вхождения, все три упоминания о том, что здесь выбрано исключение. У вас есть страница nr, где он подробно останавливается? Я уже прочитал его, но ничего не нашел о выпадении – DBX12