0

Я хотел бы понять, могу ли я это сделать, и если это действительный подход для обучения вашей модели MNB с помощью SGD. Мое приложение - это классификация текста. В sklearn Я узнал, что MNB недоступен, и по умолчанию это SVM, однако NB - линейная модель, не так ли?Могу ли я использовать SGD с Multinomial Naive Bayes?

Так что, если мои параметры правдоподобия (с лапласовским сглаживанием) может быть оценены как MNB likelihood param estimation

Могу ли я обновить свои параметры с СГД и свести к минимуму функции стоимости?

enter image description here

Пожалуйста, дайте мне знать, если SGD здесь неуместна. Заранее спасибо.

ОБНОВЛЕНИЕ: Таким образом, я получил ответ и надеюсь, что я правильно понял, что параметры MNB обновляются путем ввода слова в данном исходном тексте (например, tf-idf). Но я до сих пор не понимаю, почему мы не можем использовать SGD для обучения MNB. Я бы это понял, если это объясняется в явном описании или с некоторой математической интерпретацией. Благодаря

+0

Это будет вопрос для потока ** CrossValidated ** – MMF

ответ

0

В sklearn я узнал, что нет МНБ доступны

полиномиальной наивный байесовский реализуется в scikit учиться. Градиентный спуск не используется. Эта реализация использует только относительные частоты отсчетов (со сглаживанием) для нахождения параметров модели в один проход (который стандартный и наиболее эффективный способ, чтобы соответствовать модели МНБ):

http://scikit-learn.org/stable/modules/naive_bayes.html

+0

Спасибо. Да, я имел в виду «MNB не доступен» для модуля SGDClassifier, где SGD использует SVM по умолчанию. Поэтому я подумал, что мы можем обучить нашу модель SGD, потому что она минимизирует функцию стоимости .. с градиентами. – Novitoll

Смежные вопросы