2016-11-02 3 views
0

Я довольно новичок в глубоком обучении и полностью ошеломлен множеством разных сетей и их областей применения. Таким образом, я хочу знать, есть ли какой-то обзор, какие существуют разные сети, какие ключевые функции и какие цели они имеют.Обзор для сетей глубокого обучения

Например, я знаю abut LeNet, ConvNet, AlexNet - и как-то они такие же, но все еще отличаются?

ответ

1

Есть два основных типа нейронных сетей, руководил и неконтролируемого обучения. Оба нуждаются в учебном наборе для «обучения». Представьте себе учебный комплект как массивная книга, где вы можете узнать конкретную информацию. В контролируемом обучении книга снабжена ключом ответа, но без руководства по решению, в отличие от этого, неконтролируемое обучение приходит без ключа ответа или руководства по решению. Но цель та же самая, которая заключается в том, чтобы найти закономерности между вопросами и ответами (контролируемое обучение) и вопросами (неконтролируемое обучение).

Теперь мы проводим различие между этими двумя, мы можем пойти в модели. Давайте обсуждать подконтрольного обучения, который в основном имеет 3 основные модели:

  • искусственные нейронные сети (ИНС)

  • сверточного нейронная сеть (КНС)

  • рецидивирующий нейронная сеть (РНН)

ANN - это самый простой из всех трех. Я считаю, что вы это понимаете, поэтому мы можем двигаться вперед в CNN.

В основном в CNN все, что вам нужно сделать, это сверлить наш вход с помощью детектора функции. Функциональные детекторы - это матрицы, которые имеют размерность (строка, столбец, глубина (количество детекторов функций). Целью свертывания нашего ввода является извлечение информации, относящейся к пространственным данным. Предположим, вы хотите различать кошек и собак. а у собак нет. У кошек также есть разные глаза, чем у собак и т. д. Но недостатком является то, что чем больше уровней свертки приведет к более медленному времени вычислений. Чтобы уменьшить это, мы делаем некоторую обработку под названием пул или downsampling. В основном это уменьшает размер детекторов функций при минимизации потерянных функций или информации. Затем следующим шагом будет сглаживание или сбрасывание всех этих трехмерных матриц в (n, 1) измерение, чтобы вы могли ввести его в ANN. следующий шаг сам по себе объясняет, что является нормальным ANN.Поскольку CNN по своей сути способен обнаруживать определенные функции, он в основном (может быть, всегда) используется для классификации, например, для классификации изображений, классификации временных рядов или, возможно, даже для классификации видео. Для краш-курса в CNN ознакомьтесь с этим video от Siraj Raval. Он мой любимый ты все время!

Возможно, самый сложный из всех трех, RNN лучше всего описывается как нейронные сети, которые имеют «память», вводя в них «петли», которые позволяют сохранять информацию. Почему это важно? Когда вы читаете это, ваш мозг использует предыдущую память, чтобы понять всю эту информацию. Вы, кажется, больше не переосмысливаете все с нуля, и это то, что делают традиционные нейронные сети, чтобы забыть все и снова изучить. Но родные RNN не эффективны, поэтому, когда люди говорят о RNN, они в основном относятся к LSTM, что означает Long Short-Term Memory. Если это вас смущает, Cristopher Olah даст вам подробное объяснение очень простым способом. Я советую вам проверить свою ссылку для полного понимания о том, как РНН, особенно LSTM вариант

Что касается неконтролируемого обучения, мне так жаль, что у меня нет времени, чтобы изучить их, так что это это лучшее, что я могу сделать. Удачи и приятного времяпровождения!

1

Это тот же тип сетей. Сверточные нейронные сети. Проблема с обзором заключается в том, что как только вы публикуете что-то, он уже устарел. Большинство сетей, которые вы описываете, уже старые, хотя им всего несколько лет.

Тем не менее, вы можете взглянуть на сети, поставляемые caffe (https://github.com/BVLC/caffe/tree/master/models).

В моем личном представлении наиболее важными понятиями глубокого обучения являются повторяющиеся сети (https://keras.io/layers/recurrent/), остаточные соединения, начальные блоки (см. https://arxiv.org/abs/1602.07261). Остальные - в основном теоретические концепции, которые не вписывались бы в ответ на переполнение стека.

Смежные вопросы