2016-07-08 2 views
1

В this примере для tensorflow, он используется L2 регуляризации для полностью подключенных параметров .:L2 регуляризации для полностью связанных параметров в CNN

regularizers = (tf.nn.l2_loss(fc1_weights) + tf.nn.l2_loss(fc1_biases) + 
        tf.nn.l2_loss(fc2_weights) + tf.nn.l2_loss(fc2_biases)) 

что это? почему здесь используются полностью подключенные параметры? и как это улучшает качество?

ответ

1

Регуляризаторы в целом - это термины, добавленные к функции потерь, которые не позволяют модели перенастраивать данные обучения. Они делают это, поощряя определенные свойства на изученной модели.

L2 регуляризации параметров, например, стимулирует все параметры, чтобы быть маленьким, вместо того чтобы быть остроконечный. Это, в свою очередь, побудило бы сеть уделять равное внимание всем измерениям входного вектора.

Википедия page - отличное введение в регуляризацию в целом, и вы щелкаете, чтобы глубже изучить L2-регуляризацию в частности.

+0

Почему все подключенные параметры используются здесь? – Tavakoli

+0

Мы обычно упорядочиваем полностью подключенные слои больше, потому что у них гораздо больше параметров, чем свертки, а затем они более склонны к перегрузке –

Смежные вопросы