Я хотел реализовать LDA с tensorflow как на практике, и я думаю, что версия tensorflow может иметь преимущества ниже:Преимущества для реализации LDA (скрытое распределения Дирихле) с tensorflow
- Fast. Если я могу использовать встроенные операционные системы, чтобы выразить процесс выборки.
- Легко распараллеливать. Многие операционные системы были реализованы с оптимизацией для распараллеливания, поэтому этот lda должен быть легко запущен на gpus или распределенных кластерах.
- Более короткий и чистый код. Как и многие другие модели, особенно NN, построение таких моделей с использованием тензорного потока связано с меньшим количеством кода.
Хотя после того, как я осмотрел несколько реализаций питона ЛДА (например, https://github.com/ariddell/lda/), я понятия не имею, что можно использовать ОПС tensorflow, какого рода графа должна быть построена и то, что оптимизатор я должен выбрать. Поскольку процесс выборки гиббсов выглядит как все об элементарном обновлении doc-тем, матриц слов-слов и таблицы подсчета тем. Итак, что может сделать тензорный поток, чтобы упростить и оптимизировать этот процесс?
И могу ли я обработать вероятность сгенерированного документа для реального входного документа в качестве цели оптимизации и использовать оптимизатор повышения градиента для минимизации отрицательного значения вероятности, таким образом, получить распределения альфа, бета и док-темы? Потому что, если это возможно, то здесь можно использовать тензор.
Выход LDA - это распределение слов по темам, а вывод Word2Vec - это векторное выражение фразы (не предложение) –