Я использую операцию embedding_lookup для генерации плотных векторных представлений для каждого токена в моем документе, которые являются каналом сверточной нейронной сети (сетевая архитектура похожа на a WildML article).Встраивание таблицы поиска не маскирует значение заполнения
Все работает правильно, но когда я вставляю свой документ, вставляя в него добавочное значение, поиск встраивания также генерирует вектор для этого токена. Я думаю, что этот подход может изменить результаты в задаче классификации. То, что я хочу достичь, похоже на то, что делает факел LookupTableMaskZero.
1) Правильно, что я хочу делать?
2) Уже реализовано что-то вроде этого?
3) Если нет, как я могу замаскировать значение заполнения, чтобы предотвратить генерацию соответствующего вектора для него?
Спасибо заранее,
Алессандро
Вы когда-нибудь находили решение? – Shatu