2013-10-27 2 views
3

Я хочу знать, насколько важны характеристики SVM для его параметров. Насколько он чувствителен к обратному распространению? SVM - стабильный классификатор? не могли бы вы сослаться на некоторые документы?Параметры SVM, как это влияет на его производительность.

Спасибо!

ответ

1

Есть несколько понятий в SVMs, которые важны для понимания, чтобы получить понимание о том, как хрупком будет:

Маржа на основе только несколько пунктов, которые используются для разделения классов: поддержка векторов , Это означает, что вы используете «пограничные случаи» для разделения ваших данных. Причина для этого проста. Это соответствует установлению весов всех точек, которые не являются векторами поддержки до нуля. Это соображение разреженность. Много нулей означает, что вам нужно делать меньше умножений. Если данные являются линейными, то существует только линия, которая может быть нарисована с максимальным запасом, поэтому никаких параметров не будет. И, следовательно, никакой чувствительности по параметрам тоже. В нетривиальном случае сепарабельности в некотором высокомерном пространстве это не так. Ядро, например. гауссовское ядро, поставляется с обычным σ-параметром для дисперсии. Чем сложнее ядро, тем более неудобным может быть разделение (см. this blog post).

Неразделимые классы Для неотделимых классов необходимо придумать все, чтобы снова найти правильную проблему. Для геометрической интуиции интересна бумага Duality and Geometry in SVM classifiers. Он визуализирует проблему как уменьшенную выпуклую оболочку вокруг точек данных, так что снова существует разделимая плоскость между двумя классами. Это двойственное расширение поля (через смягчение), позволяющее включить «неправильные» точки. То, как обрабатываются «несоответствия», приводит к (настраиваемым) параметрам. Легко визуализировать, например, точку данных очень далеко в области другого класса. Если данные похожи на то, что это, вероятно, приведет к рассмотрению надежности в отношении того, как вы включаете слабые переменные или функции. Это инкапсулируется часто в «ошибочной классификации казни» С.

Если вы действительно хотите знать, какие предположения лежат в основе машины опорных векторов, часто полезно для поиска байесовской интерпретаций. Однако будьте осторожны, они могут просто изменить потерю петли на наименьшие квадраты и фактически описать что-то совершенно отличное от обычных SVM. Рекомендованная мной статья - Bayesian Methods for Support Vector Machines: Evidence and Predictive Class Probabilities от Sollich.

Смежные вопросы