Я прочитал эти строки в одном из IEEE Transaction на программное обеспечение обученияПутаница в отношении разницы машинного обучения и алгоритмов статистического обучения
«Исследователи приняли множество различных методов для построения моделей неисправностей программного обеспечения прогнозирования. Они включают в себя различные статистические методы, такие как логистическая регрессия и Naive Bayes, которые явно строят базовую вероятностную модель. Кроме того, различные методы машинного обучения, такие как деревья решений, модели, основанные на понятии персептронов, поддерживающие векторные машины и методы, которые явно не создают модель прогнозирования но вместо этого посмотрите на набор наиболее похожих известных случаев. Также были исследованы
Может ли кто-нибудь объяснить, что они действительно хотят передать. Просьба привести пример. Thanx заранее.
Не все обобщены в _ "... построить модель прогнозирования ** вместо ** взглянуть на набор наиболее похожих известных случаев ..." _. Представим себе, чтобы выбрать конфету: в первом случае вы собираете свои атрибуты, вы кормите модель и ** вычисляете ** прогнозируемый результат (аналогично тому, что вы делаете, когда вы моделируете, например, электронный компонент, а вы _predict_ или _imulate_ его вывод). Во втором случае вы выбираете конфету, и вы ** сравниваете ** с известным списком конфет, когда вы найдете большинство похожих, тогда вы получите свой матч, и вы знаете ожидаемый результат. –
Я бы рискнул, что разница в том, как автор понимает эти модели. Другой человек может классифицировать их по-разному. –