Я просматривал видео с введением Удипса в класс AI, и я не могу обернуть вокруг себя одну идею.Как предположение Наивного Байеса делает сегментирование менее интенсивным с точки зрения вычислительной мощности?
Сообщается, что для строки длины n 2 n-1 возможны сегменты. Когда мы берем наивное байесовского предположение лучшей сегментация s * может быть определена как тот, который максимизирует
продукта (P (W я))
можно написать лучший такие же, как:
сек * = Argmax сек Р (first_word) * S * (rest_of_words)
я недеформированной что выше верно. Инструктор сказал, что из-за вышеприведенного уравнения нам не нужно перечислять все 2 n-1. Я не могу понять причину этого.
Я также понимаю, что поиск P (single_word) прост, чем изучение одной и той же проблемы для n-граммов, что также поможет вычислить.
Что происходит в случае, если мы получим первое слово неправильно. Рассмотрим «intheworld». Правильное первое слово «in». Предположим, что согласно нашим данным P («i»)> P («in»). Я бы предположил, что это значительно увеличивает количество случаев, как нам приходится отступать? –
Что еще важно, как мы узнаем, что мы должны отступить, если не будем пытаться использовать каждое первое слово. Это будет то же самое, что и все. Поправьте меня, если я ошибаюсь. Благодарю. –
@TarunKumar, насколько мне известно, в простейшем подходе и в том, что описано в упражнении, упомянутом в вопросе, стратегия возврата не предусмотрена. Но все же я не думаю, что нужно все попробовать: вы могли бы также применять наивные заливы, начиная с определения последнего слова и рекурсивно на предшествующих символах. Сделано, что вы можете сравнить два решения и посмотреть лучший (или даже смешать их).Обратите внимание, что в вашем примере «intheworld» будет правильно разделен. –