Gensim оптимизированная питон порт Word2Vec (см http://radimrehurek.com/2013/09/deep-learning-with-word2vec-and-gensim/)параметры Word2Vec и Gensim эквивалентности
я в настоящее время с помощью этих векторов: http://clic.cimec.unitn.it/composes/semantic-vectors.html
я собираюсь повторно запустить модель обучения с gensim, потому что там был какой-то шумные маркеры в их моделях. Так что я хотел бы узнать, каковы некоторые эквивалентные параметры word2vec
в gensim
И параметры, которые они использовали из word2vec
являются:
- 2-слово контекста окно, PMI утяжелители, без сжатия, 300K размерами
Что такое эквивалентность gensim, когда я тренирую модель Word2Vec?
ли:
>>> model = Word2Vec(sentences, size=300000, window=2, min_count=5, workers=4)
Есть вариант веса PMI в gensim?
Какое значение min_count по умолчанию используется в word2vec?
Там в другом наборе параметров из word2vec как таковые:
- 5-слово контекста окна, 10 отрицательных образцы, подвыборки, 400 размеров.
Есть ли отрицательный образец параметра в gensim?
Какова эквивалентность параметров подвыборки в gensim?
, пожалуйста, объясните, почему вопрос слишком широк?В любом случае, это очень специфично для использования API и выяснения наличия скрытых параметров, которые не документированы, и эквивалентности параметров между портом python инструмента word2vec – alvas