1

Я хочу реализовать T = Log (f (x | client)) - Log (f (x | impostor)) для границы решения. Мои возможности для обучения и тестирования - 20 * 12. Я применил ящик для инструментов matlab для голосовой почты. Я пишу следующий код MATLAB:Двоичная классификация с использованием гауссовой смеси Модель

if max(lp_client)- max(lp_impostor) >0.35 
    disp('accept'); 
else 
    disp('reject'); 
end 

Должен ли я использовать значение вероятности лога или вероятность логарифма вероятности?

+0

Заголовок вопроса слишком широк по сравнению с содержанием. – minerals

ответ

2

Вы должны использовать сумму lp_client из-за вероятности оценки оценки. Если у вас есть последовательность независимых событий (в этой модели часто подразумевается независимость характеристик), то это вероятность вероятностей каждого события:

P (Seq | X) = P (feat1 | x) * P (feat2 | X) ...

Или в журнале домена

LOgp (Seq | X) = LOgp (feat1 | х) + LOgp (feat2 | X)

Так на самом деле

logP (x | клиент) = сумма (lp_client)

и

logP (x | impostor) = sum (lp_impostor)

+0

Спасибо за ваш ответ. Если я хочу построить универсальную модель фона (UBM) с смесью 1024, должен ли я обучать GMM всеми функциями всего в 1 GMM, например, следующим кодом? 'UBM = [training_features1; ...; training_features1024]' '[m_ubm, v_ubm, w_ubm] = gaussmix (UBM, [], No_of_Iterations, No_of_Clusters); ' –

+0

Да, вы можете так поступать –

Смежные вопросы