Я использую Stanford POS tagger с GATE Twitter model, а теггер занимает около 3 секунд для инициализации, это нормально или я загружаю его неправильно?Стэнфордский POS-теггер с GATE twitter модель медленная
Небольшой пример код:
package tweet.nlp.test;
import edu.stanford.nlp.tagger.maxent.MaxentTagger;
public class TweetNLPTest {
public static void main(String[] args) {
String text = "My sister won't tell me where she hid my food. She's fueling my anorexia. #bestsisteraward #not ";
MaxentTagger tagger = new MaxentTagger("models/gate-EN-twitter.model");
String taggedText = tagger.tagString(text);
}
}
Выход:
Чтения POS Таггер модель от моделей/гейт-EN-twitter.model ... предупреждения: нет языка набора , не указаны теги открытого класса и не указаны теги закрытого класса ; предполагая, что ВСЕ теги являются открытыми тегами класса сделано [3,1 сек].
My_PRP $ sister_NN won't_MD tell_VB me_PRP where_WRB she_PRP hid_VBD my_PRP $ food._NN She's_VBZ fueling_VBG my_PRP $ anorexia._NN #bestsisteraward_HT #not_HT _HT BUILD SUCCESSFUL (всего: 3 секунды)
кажется нормальным для меня. – Yasen
@ Ясен Я думал, может быть, я не делаю этого правильно, потому что модель GATE имеет расширение '.model', а другие модели имеют расширение' .tagger'. Что не имеет ничего общего с этим? –