2016-04-04 1 views
1

Я тренировал SVM на двух классах. Один из них - это образцы подлинного пользователя. Во-вторых, множество отрицательных выборок с равным размером выборки, чем у истинного пользователя. Я тестировал эту систему на классе, который не был использован для обучения. Результаты интересны, и я не могу их объяснить; Я не знаю, ожидается ли это, проблема SVM или что-то другое.LIBSVM дает такое же предсказание для образцов нетренированного класса. Зачем?

(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 
(0:0.9104172110162648)(1:0.08958278898373527)(Actual:1.0 Prediction:0.0) 

Выше приведен пример вывода, который я получаю для разных образцов неподготовленного и невидимого класса. Это одинаково для каждого образца. Я ожидал бы, что они будут ближе к классу 1.0, и я бы также ожидал хотя бы изменения в вероятностях!

ответ

1

Вы вообще перешли на проверку характеристик своих моделей? Вы выполнили поиск по сетке для гиперпараметров?

Ваш вывод потенциально может быть легко объяснен как плохое выполнение машинного обучения. Если вы используете ядро ​​RBF, и его ширина слишком мала, то единственным фактором, который будет способствовать решению классификации, является термин смещения. Смещение по своему характеру одинаково для всех входных данных. Таким образом, вы получите все те же результаты точно (или почти) для всех невидимых тестовых данных (если только они не были очень близки к учебной данности).

Я не могу сказать точно, что это произошло, не зная подробностей о ваших данных и том, что вы на самом деле делали. Но это кажется вероятным сценарием.

+0

Спасибо, я рассмотрю это. – mino

Смежные вопросы