Недавно я попытался получить матрицу замешательства для одной из моих обучаемых моделей, чтобы увидеть, насколько она точна. Я загрузил этот скрипт и накормил свою модель. К моему удивлению, точность, рассчитанная по сценарию, сильно отличается от точности, Caffe
отчетов.Является ли сообщение Caffe достоверным?
Я использовал this script вычислить матрицу путаницы, это, однако, сообщает точность, а также, проблемы является точность, выдаваемой этим сценарием является способом отличается, что один сообщило Caffe
!
Например, Caffe
сообщает, что точность позволяет указывать для CIFAR10
, как 92,34%, тогда как, когда модель загружается в скрипт для вычисления матрицы путаницы и ее точности, это приводит, например, к чему-то вроде 86,5%.!
Какой один из этих точностей являются правильным, и могут быть представлены в работах или по сравнению с результатами других работ, таких как те, here?
Я также увидел что-то странное снова, я обучил две идентичные модели, только с одной разницей, что один использовал xavier
, а другой использовал msra
для инициализации.
Первый сообщает о точности 94,25, а остальные отчеты 94,26 в кофе. когда эти модели загружаются в скрипт, который я связывал выше, для вычисления матрицы смешения. их точность составила 89,2% и 87,4% соответственно!
Это нормально? в чем причина этого? MSRA?
Я действительно не знаю, достоверны ли данные о кофе, правда, достойны и надежны. Я был бы признателен, если бы кто-нибудь мог пролить свет на этот вопрос.
P.N: Точность в сценарии рассчитывается как (complete script):
for i, image, label in reader:
image_caffe = image.reshape(1, *image.shape)
out = net.forward_all(data=np.asarray([ image_caffe ]))
plabel = int(out['prob'][0].argmax(axis=0))
count += 1
iscorrect = label == plabel
correct += (1 if iscorrect else 0)
matrix[(label, plabel)] += 1
labels_set.update([label, plabel])
if not iscorrect:
print("\rError: i=%s, expected %i but predicted %i" \
% (i, label, plabel))
sys.stdout.write("\rAccuracy: %.1f%%" % (100.*correct/count))
sys.stdout.flush()
print(", %i/%i corrects" % (correct, count))
Какой IMHO это нормально и правильно. количество правильных прогнозов, деленное на общее количество экземпляров в наборе данных.