Вы, кажется, называют BigramCollocationFinder
без импорта. Правильный путь: nltk.collocations.BigramCollocationFinder
. Таким образом, вы можете попробовать это (убедитесь, что в вашем текстовом файле есть текст!):
>>> import nltk
>>> raw = open('test2.txt').read()
>>> tokens = nltk.word_tokenize(raw)
# or, to exclude punctuation, use something like the following instead of the above line:
# >>> tokens = nltk.tokenize.RegexpTokenizer(r'\w+').tokenize(raw)
>>> pairs = nltk.bigrams(tokens)
>>> bigram_measures = nltk.collocations.BigramAssocMeasures()
>>> trigram_measures = nltk.collocations.TrigramAssocMeasures()
>>> finder = nltk.collocations.BigramCollocationFinder.from_words(pairs) # note the difference here!
>>> finder.apply_freq_filter(3)
>>> finder.nbest(bigram_measures.pmi, 10) # from the Old English text of Beowulf
[(('m\xe6g', 'Higelaces'), ('Higelaces', ',')), (('bearn', 'Ecg\xfeeowes'), ('Ecg\xfeeowes', ':')), (("''", 'Beowulf'), ('Beowulf', 'ma\xfeelode')), (('helm', 'Scyldinga'), ('Scyldinga', ':')), (('ne', 'cu\xfeon'), ('cu\xfeon', ',')), ((',', '\xe6r'), ('\xe6r', 'he')), ((',', 'helm'), ('helm', 'Scyldinga')), ((',', 'bearn'), ('bearn', 'Ecg\xfeeowes')), (('Ne', 'w\xe6s'), ('w\xe6s', '\xfe\xe6t')), (('Beowulf', 'ma\xfeelode'), ('ma\xfeelode', ','))]
Спасибо, что решила одну проблему. Теперь, чтобы получить пары слов, нужно ли сначала вырезать пунктуации? или после последней строки кода «finder.nbest» он возвращает наиболее часто встречающиеся пары слов из файла – user3182194
@ user3182194. Вы можете, конечно, преградить пунктуацию, если вы не хотите включать какие-либо знаки препинания. Вы можете сделать что-то такое же простое: 'tokens = nltk.tokenize.RegexpTokenizer (r '\ w +'). Tokenize (raw)'. Я обновлю ответ выше. –
Я использовал его, и это устранило пунктуации. Но мой окончательный результат возвращает всего два словаря (наиболее частого по моему коду) из всего файла. Изменение значения finder.apply_freq_filter (3) до 1/2 не изменяет результат? – user3182194