Я пробовал свою модель на наборе данных с использованием KNN-классификатора, мне хотелось бы знать, какая из них наиболее важна в модели, и в наибольшей степени способствуют предсказанию.Как получить самую полезную функцию в классификаторе Knn Sklearn
ответ
Чтобы получить качественное представление, в котором функция имеет большее влияние на классификацию можно выполнять n_feats
классификации, используя одну функцию, в то время (n_feats
обозначает особенность размерности вектора), например:
import numpy as np
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import cross_val_score
iris = datasets.load_iris()
clf = KNeighborsClassifier()
y = iris.target
n_feats = iris.data.shape[1]
print('Feature Accuracy')
for i in range(n_feats):
X = iris.data[:, i].reshape(-1, 1)
scores = cross_val_score(clf, X, y)
print('%d %g' % (i, scores.mean()))
Выход:
Feature Accuracy
0 0.692402
1 0.518382
2 0.95384
3 0.95384
Эти результаты свидетельствуют о том, что классификация преобладают черты 2 и 3.
Вы могли бы следовать альтернативный подход, заменив X = iris.data[:, i].reshape(-1, 1)
в коде выше по:
X_head = np.atleast_2d(iris.data[:, 0:i])
X_tail = np.atleast_2d(iris.data[:, i+1:])
X = np.hstack((X_head, X_tail))
В этом случае вы выполняете n_samples
классификации, а также. Разница заключается в том, что вектор признаков, используемый в классификации i, состоит из всех функций, но i-й.
Пример запуска:
Feature Accuracy
0 0.973856
1 0.96732
2 0.946895
3 0.959967
Это ясно вытекает из этих результатов, что классификатор дает худшую точность, когда вы избавитесь от второго признака, что согласуется с результатами, полученными с помощью первого подхода.
- 1. Нормализация в Sklearn KNN
- 2. Почему перестановка используется в классификаторе knn?
- 3. sklearn svc: count количество элементов в классификаторе
- 4. Оценка эффективности вложений нейронной сети в классификаторе kNN
- 5. Использование Sklearn kNN с определенной пользователем метрикой
- 6. Как сделать проверку N Cross в KNN python sklearn?
- 7. KNN in sklearn - Как правильно использовать KNeighborsRegressor в классе?
- 8. Sklearn - Невозможно использовать закодированные данные в классификаторе случайных лесов
- 9. Параметры поиска сетки и кросс-проверенные данные, установленные в KNN-классификаторе в Scikit-learn
- 10. Настроить функцию потерь sklearn
- 11. Как найти точность с использованием нескольких значений k в классификаторе knn (matlab)
- 12. KNN только предсказывает один класс. Использование python и sklearn
- 13. Вызов предсказать функцию ближайшего соседа (Knn) классификатор с Python scikit sklearn
- 14. ошибка в ссылочном классификаторе
- 15. Как получить самую длинную анимацию
- 16. Когда ссылка на полезную функцию?
- 17. Как получить полезную нагрузку TaskQueue?
- 18. Как получить вероятности классов в классификаторе Spark Naive Bayes?
- 19. Как получить самую высокую и самую низкую точки в хеше?
- 20. Оценка PredictionIO в классификаторе
- 21. Получить полезную нагрузку сообщения
- 22. Как сохранить sklearn трубопровода/функцию-трансформер
- 23. Вес функции установки для KNN
- 24. Как получить полезную системную информацию в java?
- 25. Как получить полезную нагрузку в WatchOS2?
- 26. Как получить полезную обратную линию в Cygwin?
- 27. Получение Вероятности в Knn классификатором в R
- 28. Работа с экстремальными неуравновешенными мультиклассами в классификаторе логистической регрессии в sklearn python
- 29. Sklearn Multiclass Dataset Загрузка
- 30. Sklearn: Как поток данных в sklearn RandomForestClassifier