Есть два основных типа нейронных сетей, руководил и неконтролируемого обучения. Оба нуждаются в учебном наборе для «обучения». Представьте себе учебный комплект как массивная книга, где вы можете узнать конкретную информацию. В контролируемом обучении книга снабжена ключом ответа, но без руководства по решению, в отличие от этого, неконтролируемое обучение приходит без ключа ответа или руководства по решению. Но цель та же самая, которая заключается в том, чтобы найти закономерности между вопросами и ответами (контролируемое обучение) и вопросами (неконтролируемое обучение).
Теперь мы проводим различие между этими двумя, мы можем пойти в модели. Давайте обсуждать подконтрольного обучения, который в основном имеет 3 основные модели:
искусственные нейронные сети (ИНС)
сверточного нейронная сеть (КНС)
рецидивирующий нейронная сеть (РНН)
ANN - это самый простой из всех трех. Я считаю, что вы это понимаете, поэтому мы можем двигаться вперед в CNN.
В основном в CNN все, что вам нужно сделать, это сверлить наш вход с помощью детектора функции. Функциональные детекторы - это матрицы, которые имеют размерность (строка, столбец, глубина (количество детекторов функций). Целью свертывания нашего ввода является извлечение информации, относящейся к пространственным данным. Предположим, вы хотите различать кошек и собак. а у собак нет. У кошек также есть разные глаза, чем у собак и т. д. Но недостатком является то, что чем больше уровней свертки приведет к более медленному времени вычислений. Чтобы уменьшить это, мы делаем некоторую обработку под названием пул или downsampling. В основном это уменьшает размер детекторов функций при минимизации потерянных функций или информации. Затем следующим шагом будет сглаживание или сбрасывание всех этих трехмерных матриц в (n, 1) измерение, чтобы вы могли ввести его в ANN. следующий шаг сам по себе объясняет, что является нормальным ANN.Поскольку CNN по своей сути способен обнаруживать определенные функции, он в основном (может быть, всегда) используется для классификации, например, для классификации изображений, классификации временных рядов или, возможно, даже для классификации видео. Для краш-курса в CNN ознакомьтесь с этим video от Siraj Raval. Он мой любимый ты все время!
Возможно, самый сложный из всех трех, RNN лучше всего описывается как нейронные сети, которые имеют «память», вводя в них «петли», которые позволяют сохранять информацию. Почему это важно? Когда вы читаете это, ваш мозг использует предыдущую память, чтобы понять всю эту информацию. Вы, кажется, больше не переосмысливаете все с нуля, и это то, что делают традиционные нейронные сети, чтобы забыть все и снова изучить. Но родные RNN не эффективны, поэтому, когда люди говорят о RNN, они в основном относятся к LSTM, что означает Long Short-Term Memory. Если это вас смущает, Cristopher Olah даст вам подробное объяснение очень простым способом. Я советую вам проверить свою ссылку для полного понимания о том, как РНН, особенно LSTM вариант
Что касается неконтролируемого обучения, мне так жаль, что у меня нет времени, чтобы изучить их, так что это это лучшее, что я могу сделать. Удачи и приятного времяпровождения!