Я использую GridSearchCV так:sklearn GridSearchCV: как получить классификационный отчет?
corpus = load_files('corpus')
with open('stopwords.txt', 'r') as f:
stop_words = [y for x in f.read().split('\n') for y in (x, x.title())]
x = corpus.data
y = corpus.target
pipeline = Pipeline([
('vec', CountVectorizer(stop_words=stop_words)),
('classifier', MultinomialNB())])
parameters = {'vec__ngram_range': [(1, 1), (1, 2)],
'classifier__alpha': [1e-2, 1e-3],
'classifier__fit_prior': [True, False]}
gs_clf = GridSearchCV(pipeline, parameters, n_jobs=-1, cv=5, scoring="f1", verbose=10)
gs_clf = gs_clf.fit(x, y)
joblib.dump(gs_clf.best_estimator_, 'MultinomialNB.pkl', compress=1)
Затем, в другом файле, чтобы классифицировать новые документы (а не от корпуса), я делаю это:
classifier = joblib.load(filepath) # path to .pkl file
result = classifier.predict(tokenlist)
Мой вопрос: Где Я получаю значения, необходимые для classification_report
?
Во многих других примерах я вижу, как люди разбивают корпус на набор трассировки и набор тестов. Однако, поскольку я использую GridSearchCV
с перекрестной проверкой kfold, мне не нужно это делать. Так как я могу получить эти значения от GridSearchCV
?
Просто вопрос, не 'gs_clf.fit (х, у) 'return' None'? – BallpointBen
@BallpointBen Почему? x и y содержат данные – user3813234