3зной
1ответ
Возможные объяснения увеличения потерь?
3зной
1ответ
- это кросс-энтропия с использованием Softmax для классификации с несколькими метками?
2зной
1ответ
Нужна помощь понимания кода Caffe для SigmoidCrossEntropyLossLayer для потери несколько этикеток
1зной
1ответ
6зной
3ответ
1зной
1ответ
Tensorflow R0.12 softmax_cross_entropy_with_logits Ошибка ASSERT
2зной
1ответ
Tensorflow - потеря начинается с максимума и не уменьшается
0зной
1ответ
Взаимосвязь между Crossentroy Loss и Accurary
0зной
1ответ
Исключает ли бинарный логарифм одну часть уравнения на основе y?