2014-11-06 3 views
0

Я прочитал эти строки в одном из IEEE Transaction на программное обеспечение обученияПутаница в отношении разницы машинного обучения и алгоритмов статистического обучения

«Исследователи приняли множество различных методов для построения моделей неисправностей программного обеспечения прогнозирования. Они включают в себя различные статистические методы, такие как логистическая регрессия и Naive Bayes, которые явно строят базовую вероятностную модель. Кроме того, различные методы машинного обучения, такие как деревья решений, модели, основанные на понятии персептронов, поддерживающие векторные машины и методы, которые явно не создают модель прогнозирования но вместо этого посмотрите на набор наиболее похожих известных случаев. Также были исследованы

Может ли кто-нибудь объяснить, что они действительно хотят передать. Просьба привести пример. Thanx заранее.

+0

Не все обобщены в _ "... построить модель прогнозирования ** вместо ** взглянуть на набор наиболее похожих известных случаев ..." _. Представим себе, чтобы выбрать конфету: в первом случае вы собираете свои атрибуты, вы кормите модель и ** вычисляете ** прогнозируемый результат (аналогично тому, что вы делаете, когда вы моделируете, например, электронный компонент, а вы _predict_ или _imulate_ его вывод). Во втором случае вы выбираете конфету, и вы ** сравниваете ** с известным списком конфет, когда вы найдете большинство похожих, тогда вы получите свой матч, и вы знаете ожидаемый результат. –

+0

Я бы рискнул, что разница в том, как автор понимает эти модели. Другой человек может классифицировать их по-разному. –

ответ

1

Авторы, похоже, различают вероятностные и не вероятностные модели, то есть модели, которые производят распределение p(output | data) против тех, которые только что производят выход output = f(data).

Описание неслучайных алгоритмов - это нечетные по моему вкусу фрагменты. Разница между векторной машиной (линейная) поддержки, персептроном и логистической регрессией от модели и алгоритмической точки зрения это не очень большая. Предполагая, что первый «рассмотрит множество наиболее известных случаев», и последнее не кажется странным.

0

Авторы, по-видимому, выделяют модели, которые вычисляют вероятности каждого класса (из которых вы можете получить правило классификации для назначения ввода наиболее вероятному классу или, что более сложно, назначить ввод классу, который имеет наименьшая стоимость ошибочной классификации) и те, которые непосредственно присваивают входные данные классам, не проходя через вероятность каждого класса в качестве промежуточного результата.

Задачу классификации можно рассматривать как проблему решения; в этом случае необходимы вероятности каждого класса и матрица затрат по неправильной классификации. Я думаю, что этот подход описан во многих современных текстах по машинного обучения, например, «Распознавание образов и нейронных сетей» Брайана Рипли и Хасти, Тиббирани и Фридмана «Элементы статистического обучения».

Как мета-комментарий, вы можете получить больше тяги к этому вопросу на stats.stackexchange.com.

Смежные вопросы