я понял общую формулу:Пример простого Байеса наивного классификатором с матрицами
P(i | x) = (p(i)p(x|i))/(sum(p(j)(p(x|j))
Но я не могу успешно применять его в этом упражнении:
Рассмотрим наборы данных для двух классов X1 = {(0,0)} и X2 = {(1,0), (0,1)}. Какая вероятность классификации будет наивным классификатором Байеса для вектор-функции (0,0)?
Я не могу понять, что р (1) и р ((0,0) | 1) бы в этом случае.
Существует много ** книг ** и учебников, которые объясняют классификатор Наивного Байеса. Почему бы вам не прочитать разъяснения, данные * профессиональными учителями ** вместо того, чтобы убедить какого-нибудь случайного пользователя в Интернете объяснить вам домашние задания? –
Потому что все книги и «объяснения, данные профессиональными учителями» используют разные случаи, например, реальные (болезни, почтовые спам). Я не могу применить его к этому примеру матрицы. – Ambi
Я на самом деле согласен, вопрос не очень хорошо написан. Я бы предположил, что X1 являются примерами обучения для категории 1, а X2 - примерами для категории 2. Это делает p (1) предыдущей вероятностью категории 1 и p ((0,0) | 1) правдоподобия. И я предполагаю, что у этого должен быть домашний тег –