2016-07-14 3 views
0

Мне интересно, почему ведра вводятся в учебнике Seq2Seq TensorFlow. Я понимаю выигрыш в эффективности, не обрабатывая символы заполнения, но вы можете избежать обработки прокладок, если используете rnn и укажите параметр sequence_length. Или если вы используете dynamic_rnn.Seq2Seq использование ведер в учебнике TensorFlow

Это потому, что оно помогает распределить обучение на нескольких устройствах/машинах?

ответ

0

Одна из причин заключается в том, что seq2seq был создан до того, как был доступен динамический rnn. Другое дело, что даже с динамическим rnn он все еще помогает ускорить, если ваши партии организованы ведром.

+0

Я согласен с первой причиной :) Но почему бы помочь ведро? Даже с размером ковша, близким к размеру фразы, все еще есть обработка отступов. Предположим, что во время выполнения вы хотите сделать одну обработку фразы, чтобы упростить ситуацию. Фраза имеет 7 слов, поэтому она должна быть заполнена до 10 для первого ведра, в результате получится обработка 3 пэдов. Мое понимание того, что динамический rnn будет обрабатывать только 7, верно? – RaduK

+0

Я просмотрел код, и теперь я понимаю вашу точку зрения. Ковши не помогут выполнить одно исполнение (пример, который я дал), но они будут для партии. – RaduK