, что у меня есть следующий, который я считаю, это сеть с одним скрытым LSTM слоя:как укладывать LSTM слои с помощью TensorFlow
# Parameters
learning rate = 0.001
training_iters = 100000
batch_size = 128
display_step = 10
# Network Parameters
n_input = 13
n_steps = 10
n_hidden = 512
n_classes = 13
# tf Graph input
x = tf.placeholder("float", [None, n_steps, n_input])
y = tf.placeholder("float", [None, n_classes])
# Define weights
weights = {
'out' : tf.Variable(tf.random_normal([n_hidden, n_classes]))
}
biases = {
'out' : tf.Variable(tf.random_normal([n_classes]))
}
Однако я пытаюсь построить сеть LSTM с помощью TensorFlow предсказать потребляемая мощность. Я искал хороший пример, но не смог найти ни одной модели с двумя скрытыми слоями LSTM. Вот модель, которую я хотел бы построить:
1 входной слой, 1 выходной слой, 2 скрытые LSTM слои (с 512 нейронов в каждом), временной шаг (длина последовательности): 10
Могли кто-нибудь поможет мне построить это с помощью TensorFlow? (от определения весов, формирования формы ввода, обучения, прогнозирования, использования оптимизатора или функции затрат и т. д.), любая помощь будет высоко оценена.
Большое вам спасибо!
Спасибо за ответ. Нужно ли еще инициализировать переменные (параметры) из скрытого уровня1 в скрытый layer2 или они внутренне заботятся? – subbie
Переменные для LSTM инициализируются, когда вы используете его внутри класса. Взгляните на исходный код, это очень полезно. – chasep255
Я вижу, что переменные для четырех ворот LSTM инициализируются, но не должны также быть параметры от первого скрытого слоя до второго?Было бы разумно, если MultiRNNCell инициализирует параметры от одного скрытого к другому. – subbie