Я новичок в тензорном потоке, теперь я немного смущен о значении batch_size
. Как правило, известно, что значение batch_size
является количество образцов для каждой партии, но в соответствии с кодом в ptb_word_lm
, кажется, нет:Значение batch_size в ptb_word_lm (LSTM-модель тензорного потока)
reader.py:
data_len = tf.size(raw_data) #the number of words in dataset
batch_len = data_len // batch_size
Что batch_len значит? Количество партий?
ptb_word_lm.py:
self.epoch_size = ((len(data) // batch_size) - 1) // num_steps
Что epoch_size
значит? Количество последовательностей в каждой партии?
Но если batch_size означает количество партий, тогда все имеет смысл. я что-то не понял?
Спасибо, что имеет смысл, и это также причина, по которой необработанные данные должны быть изменены в [batch_size, batch_len] – shakacs
Итак, чтобы уточнить: «пакет» представляет собой векторный ввод в LSTM, а num_steps - это количество партий в последовательности, которую мы кормим на LSTM во время обучения? Итак, если я изучаю временные ряды, состоящие из значений X, Y, Z на каждом временном шаге, партия будет единым временным шагом для X, Y и Z? – zcleghern