Мне интересно, почему ведра вводятся в учебнике Seq2Seq TensorFlow. Я понимаю выигрыш в эффективности, не обрабатывая символы заполнения, но вы можете избежать обработки прокладок, если используете rnn
и укажите параметр sequence_length
. Или если вы используете dynamic_rnn
.Seq2Seq использование ведер в учебнике TensorFlow
Это потому, что оно помогает распределить обучение на нескольких устройствах/машинах?
Я согласен с первой причиной :) Но почему бы помочь ведро? Даже с размером ковша, близким к размеру фразы, все еще есть обработка отступов. Предположим, что во время выполнения вы хотите сделать одну обработку фразы, чтобы упростить ситуацию. Фраза имеет 7 слов, поэтому она должна быть заполнена до 10 для первого ведра, в результате получится обработка 3 пэдов. Мое понимание того, что динамический rnn будет обрабатывать только 7, верно? – RaduK
Я просмотрел код, и теперь я понимаю вашу точку зрения. Ковши не помогут выполнить одно исполнение (пример, который я дал), но они будут для партии. – RaduK