Когда люди пытаются решить задачу семантической сегментации с помощью CNN, они обычно используют потерю softmax-crossentropy во время обучения (см. Fully conv. - Long). Но когда дело доходит до сравнения эффективности различных подходов, сообщается о таких мерах, как перекрест-соединение.Почему вы не используете IOU для обучения?
Мой вопрос в том, почему люди не тренируются напрямую по мере, который они хотят оптимизировать? Кажется странным, чтобы я тренировался в определенной мере во время тренировки, но оценил еще одну меру для тестов.
Я вижу, что у IOU есть проблемы для обучения образцов, где класс отсутствует (объединение = 0 и пересечение = 0 => деление нуль на ноль). Но когда я могу гарантировать, что каждый образец моей основной истины содержит все классы, есть ли еще одна причина не использовать эту меру?
может включить некоторые из математики здесь, чтобы сделать это не только ссылка ответа. Их алгоритм похож на [Y.Wang и др.] (Http://www.cs.umanitoba.ca/~ywang/papers/isvc16.pdf). Грубо, 'I ~ = sum (Y * Y ')' и 'U ~ = sum (Y + Y' - Y * Y ')'. В вашем документе используется отрицательный журнал 'I/U', а тот, который я связал, использует' 1-I/U'. Мне нравится отрицательная форма журнала, но я собираюсь попробовать оба в ближайшее время. Вы также суммируете после I/U вместо предыдущего. – Poik
По моему личному мнению, более физически разумно вычислять 'I/U' для каждого образца в наборе обучения, а затем выполнять суммирование. Таким образом, вы оцениваете точность на основе каждой выборки, а отдельные ошибки складываются. Выполнение суммирования сначала может привести к аннулированию ошибок ('sum (I)/sum (U)' может дать хороший балл, а 'sum (I/U)' может не совпадать с теми же данными). Я отнюдь не эксперт, хотя ... – MPA