Итак, я получил «стандартный» Stanford Parser для работы благодаря ответам danger89 на этот предыдущий пост, Stanford Parser and NLTK.Stanford Dependency Parser Setup и NLTK
Однако теперь я пытаюсь заставить анализатор зависимостей работать, и кажется, что метод, выделенный в предыдущей ссылке, больше не работает. Вот мой код:
import nltk
import os
java_path = "C:\\Program Files\\Java\\jre1.8.0_51\\bin\\java.exe"
os.environ['JAVAHOME'] = java_path
from nltk.parse import stanford
os.environ['STANFORD_PARSER'] = 'path/jar'
os.environ['STANFORD_MODELS'] = 'path/jar'
parser = stanford.StanfordDependencyParser(model_path="path/jar/englishPCFG.ser.gz")
sentences = parser.raw_parse_sents(nltk.sent_tokenize("The iPod is expensive but pretty."))
Я получаю следующее сообщение об ошибке: «модуль» объект не имеет атрибута «StanfordDependencyParser»
Единственное, что я изменил был «StanfordDependencyParser» от «StanfordParser». Любые идеи, как я могу заставить это работать?
Я также попытался парсер Stanford Neural зависимостями, импортируя его, как показано в документации здесь: http://www.nltk.org/_modules/nltk/parse/stanford.html
Это одна не работает.
Довольно новый для NLTK. Заранее благодарим за любой полезный ввод.
Каков ваш вывод для импорта python -c nltk; print nltk .__ version __ "'? – alvas