2016-08-05 5 views
1

Существует множество функций потерь в тензорном потоке, например sigmoid_cross_entropy_logits, softmax_cross_entropy_logits. Не могли бы вы написать математические формулировки этих функций? А что такое логиты? Это относится к функции this? И применяется ли это элемент мудрый?Функция потери тензометра?

+0

Формула для описания сигмовидной кросс-энтропии представлена ​​в документах: https://www.tensorflow.org/versions/r0.10/api_docs/python/nn.html#sigmoid_cross_entropy_with_logits –

ответ

0

Пожалуйста, смотрите пример:

# tf.nn.softmax computes softmax activations 
# softmax = exp(logits)/reduce_sum(exp(logits), dim) 
logits = tf.matmul(X, W) + b 
hypothesis = tf.nn.softmax(logits) 

# Cross entropy cost/loss 
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, 
              labels=Y_one_hot)) 

логит выводится из модели (до SoftMax). Вы можете найти полный пример: https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.py.

Смежные вопросы