Я думаю, что это хороший вопрос, и не стоит беспокоиться, если у вас возникло чувство, что он недостаточно ясен. Контролируемое обучение может использоваться для классификации экземпляра (строки данных) в нескольких категориях (или в вашем случае всего 2 набора). То, что вам не хватает в приведенном выше примере, - это переменная, в которой указано, к которой принадлежит строка 1.
import numpy as np # numpy will help us to concatenate the columns into a 2-dimensional array
# so instead of hiving 3 separate arrays, we have 1 array with 3 columns and 18 rows
Variable1A = [ 3,4,4,5,4,5,5,6,7,7,5,4,5,6,4,9,3,4]
Variable2A = [ 5,4,4,3,4,5,4,5,4,3,4,5,3,4,3,4,4,3]
Variable3A = [ 7,8,4,5,6,7,3,3,3,4,4,9,7,6,8,6,7,8]
#our target variable for A
target_variable_A=[1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1]
Variable1B = [ 7,8,11,12,7,9,8,7,8,11,15,9,7,6,9,9,7,11]
Variable2B = [ 1,2,3,3,4,2,4,1,0,1,2,1,3,4,3,1,2,3]
Variable3B = [ 12,18,14,15,16,17,13,13,13,14,14,19,17,16,18,16,17,18]
# target variable for B
target_variable_B=[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]
#lets create a dataset C with only 4 rows that we need to predict if belongs to "1" which is data set A or "0" which is dataset B
Variable1C = [ 7,4,4,12]
Variable2C = [ 1,4,4,3]
Variable3C = [ 12,8,4,15]
#make the objects 2-dimenionsal arrays (so 1 array with X rows and 3 columns-variables)
Dataset_A=np.column_stack((Variable1A,Variable2A,Variable3A))
Dataset_B=np.column_stack((Variable1B,Variable2B,Variable3B))
Dataset_C=np.column_stack((Variable1C,Variable2C,Variable3C))
print(" dataset A rows ", Dataset_A.shape[0]," dataset A columns ", Dataset_A.shape[1])
print(" dataset B rows ", Dataset_B.shape[0]," dataset B columns ", Dataset_B.shape[1])
print(" dataset C rows ", Dataset_C.shape[0]," dataset C columns ", Dataset_C.shape[1])
##########Prints ##########
#(' dataset A rows ', 18L, ' dataset A columns ', 3L)
#(' dataset B rows ', 18L, ' dataset B columns ', 3L)
#(' dataset C rows ', 4L, ' dataset C columns ', 3L)
# since now we have an identification that tells us if it belongs to A or B (e.g. 1 or 0) we can append the new sets together
Dataset_AB=np.concatenate((Dataset_A,Dataset_B),axis=0) # this creates a set with 36 rows and 3 columns
target_variable_AB=np.concatenate((target_variable_A,target_variable_B),axis=0)
print(" dataset AB rows ", Dataset_AB.shape[0]," dataset Ab columns ", Dataset_AB.shape[1])
print(" target Variable rows ", target_variable_AB.shape[0])
##########Prints ##########
#(' dataset AB rows ', 36L, ' dataset Ab columns ', 3L)
#(' target Variable rows ', 36L)
#now we will select the most common supervised scikit model - Logistic Regression
from sklearn.linear_model import LogisticRegression
model=LogisticRegression() # we create an instance of the model
model.fit(Dataset_AB,target_variable_AB) # the model learns to distinguish between A and B (1 or 0)
#now we make predictions for the new dataset C
predictions_for_C=model.predict(Dataset_C)
print(predictions_for_C)
# this will print
#[0 1 1 0]
# so first case belongs to set A , second to B, third to B and fourth to A
Я считаю, что 'sklearn' работает с' numpy', поэтому вам, вероятно, следует начать с этого. В противном случае вы просмотрели любой из [примеров] (http://scikit-learn.org/stable/auto_examples/neighbors/plot_classification.html)? – TheSchwa
@ TheSchwa Это неконтролируемое машинное обучение. Мне требуется контролируемое машинное обучение –
Вы неверны. Это контролируется. Вы не можете использовать алгоритм KNN, не давая ему метки. Unsupervised будет чем-то вроде кластеризации (например, K Means). Большинство общих алгоритмов (KNN, SVM, Naive Bayes) контролируются. – TheSchwa