I'am пытается изменить keras пример pretrained_word_embeddings, который доступен here и я столкнулся следующий вопрос: если я уменьшил MAX_SEQUENCE_LENGTH
varibae, например, чтобы 95
значение я получаю следующее сообщение об ошибке:Ошибка во время воспроизведения с keras например pretrained_word_embeddings
Traceback (most recent call last): File "C:\Program Files\Anaconda3\lib\site-packages\tensorflow\python\framework\common_shapes.py", line 670, in _call_cpp_shape_fn_impl status) File "C:\Program Files\Anaconda3\lib\contextlib.py", line 66, in exit next(self.gen) File "C:\Program Files\Anaconda3\lib\site-packages\tensorflow\python\framework\errors_impl.py", line 469, in raise_exception_on_not_ok_status pywrap_tensorflow.TF_GetCode(status)) tensorflow.python.framework.errors_impl.InvalidArgumentError: Negative dimension size caused by subtracting 5 from 2 for 'Conv2D_2' (op: 'Conv2D') with input shapes: [?,2,1,128], [5,1,128,128].
Мне нужно изменить его в случае, если я, например, должен работать с небольшими сообщениями, например, твитами. Я использую бэкэнс Tensorflow.
Пожалуйста, помогите мне уточнить 1) В чем проблема с MAX_SEQUENCE_LENGTH
? 2) В чем причина того, что Conv2D_2
находится в следе вместо Conv1D
, который я использую в модели.
Большое спасибо! Это помогает мне разобраться в форме потока через модель. –
Есть ли что-нибудь еще, что я мог бы объяснить? –
спасибо за внимание! Несколько дополнительных вопросов: 1) Можно ли использовать исключение в такой модели? 2) Последний слой MaxPooling1D должен каждый раз охватывать всю форму вывода? На исходной модели последний результат выполнения conv-слоя равен 35, и мы устанавливаем maxpool то же самое значение 35, в моем примере, если у нас есть последний conv 2, поэтому мы можем поставить maxpool как 2. 3) Правильно ли я, если сказать, что увеличение значения 128 (ядра номер) повысит точность –