0

Во время обучения классификатору, почему мы используем негативные или фоновые изображения? Как они используются при обучении классификатора объектов? И может ли кто-нибудь объяснить общую процедуру тренировки с использованием любого языка программирования, такого как MATLAB?Почему негативные изображения используются в обучении?

+0

Приведите примеры изображений или другую информацию. Вы можете использовать что угодно, чтобы обучить классификатор ... Без контекста вы не получите хорошего ответа. – Piglet

+1

Потому что вы хотите дать примеры алгоритмов обучения того, что НЕ искать. Предоставление системы машинного обучения со всеми положительными изображениями означало бы, что она просто предположила бы, что все положительно. Подумайте об этом с точки зрения человеческого мозга ... как именно мы знаем, что делает машина и не выглядит?Мы смотрим на изображения, которые не являются машинами и есть, и мы учимся там. – rayryeng

ответ

0

Обучение само по себе является проблемой оптимизации. Эта задача оптимизации пытается оптимизировать точность классификации. Если образцов нет, проблема с оптимизацией не будет, и границы могут быть установлены на +, - бесконечно, с классификацией всех выборок как положительных

3

Во-первых, я сомневаюсь, что вы получите ответ за how to train a classifier in matlab. Это очень неопределенный вопрос. Зависит много от ваших данных и вашей цели, и по существу есть десятки-сотни алгоритмов для выполнения классификации, это не , что просто.

К основному вопросу, почему отрицательные образцы даны классификатору. Это опять-таки сильно зависит от используемого вами классификатора, но, короче говоря, существуют два типа классификационных моделей (их больше, но их можно обобщить): generative models и discriminative models.

Модели генераторов предназначены для моделирования статистики (внешний вид или любые другие функции) целевого класса (например, вы пытаетесь моделировать автомобиль). Затем генерирующая модель изучит способ (из данных обучения только положительных примеров), чтобы идентифицировать автомобиль. Это, учитывая случайную выборку, скажет вам вероятность того, что образец будет создан вашей моделью . В качестве немого примера, для вашей модели является Univariate Gaussian, тогда модель сообщит вам о вероятности того, что образец данных (выбор) будет выбран из гауссовой дистрибуции, которую вы узнали.

Генеративные модели полезны, когда вы не имеете негативные данные обучения, или там, где ваши данные могут быть смоделированы простых распределений .. но модель только узнает как делает автомобиль выглядеть, это Безразлично 't learn как выглядит автомобиль нет.

Дискриминационные модели, с другой стороны, учатся гораздо более сложным (и обычно надежным) правилам, чтобы различать целевые классы. Наличие набора целевых объектов (например, автомобилей и фона, или автомобилей, велосипедов, домов и неба), а не обучения Как выглядит автомобиль, алгоритм пытается узнать Как отличается автомобиль от фона.

Если вся ваша память содержит только 100 фотографий автомобилей, а затем вы получаете картину мотоцикла, это очень трудно для вас, чтобы сказать, что мотоцикл не автомобиль (вы никогда не видели прежде, чем), оба изображения будут иметь фон и колеса. Однако, если вам дают 50 изображений автомобилей и еще 50 случайных уличных фотографий (включая, например, велосипед), вы можете узнать более сильные отношения, чтобы попытаться идентифицировать автомобили в будущем.

+0

Отличное объяснение. +1. Мне особенно нравится ваше упоминание как генеративных, так и дискриминационных моделей. – rayryeng

Смежные вопросы