Я обучил несколько миллионов слов в Word2Vec
из Gensim
из Python. Я хочу обновить эту обученную модель новыми данными. Но из ваших предыдущих сообщений и других источников в Интернете я пришел к выводу, что это невозможно. Итак, я пытаюсь создать несколько моделей и сбрасывать их. Теперь я хочу объединить модели, которые я сбрасываю. Я хочу использовать эти сброшенные результаты. Я получил предыдущий пост Merging pretrained models in Word2Vec? , но я не понимаю, как это сделать. тамУсреднение нескольких моделей Word2vec Gensim
model = word2vec.Word2Vec.load_word2vec_format('/tmp/vectors.bin', binary=True)
- ли возможное решение: Я пришел, чтобы узнать, есть библиотека имени deepdist, я пытаюсь увидеть некоторые эксперименты вокруг?
- Если есть, то можете предложить, как это сделать?
Я использую Python2.7 для Windows 7 Professional.
Он сказал: «Разделите свой набор данных на 2 набора данных равного размера, а затем подготовьте их обоих». Я также могу так думать, используя мои newdata и olddata, если я скажу newdata = data_of_size1 и olddata = data_of_size2, где size1 = size2. Если я объединю свою модель newdata и модель olddata, моя проблема будет решена. Я не прав, если я это скажу? Но как это сделать? – Searcher
Часто модели используют агрегированные данные, которые невозможно напрямую объединить. Независимо от размера данных, модели могут работать сами по себе, просто использовать их отдельно и объединять прогнозы. –