Я хочу моделировать следующее:Как организовать повторяющуюся нейронную сеть?
у (т) = Р (х (т-1), х (т-2), ... х (тк))
или позволяет сказать, что его текущий выход зависит от последних k входов.
1- Я знаю один способ иметь классическую нейронную сеть с к входам в {х (т-1), х (т-2), ... х (Tk)} для каждого у (t) и обучить его. Тогда в чем преимущество использования RNN для решения этой проблемы?
2 Предполагая использование RNN, следует использовать только x (t) (или x (t-1)) и предположить, что скрытый слой (ы) может найти отношение y (t) к прошлым k входам через наличие в своей памяти (скрытый слой)?
3 Использование глубоких сетей, таких как Deep RNN или LSTM, имеет какое-либо превосходное преимущество для такой проблемы, учитывая, что мы хотим оценить выход на основе последних k входов?
Благодарим за совет. 1- Я думаю, что bi-RNN не подходит моей проблеме, поскольку я хочу предсказать вероятность следующего лучшего решения на основе предыдущих решений (в другой перспективе). 2 Предполагая использование LSTM, я все еще не уверен, следует ли использовать все k предыдущих экземпляров x (t) в качестве отдельных входов в сеть или использовать только последний x (t-1), поскольку единственным входом будет и если сеть может отслеживать последние k, увиденные x (t) в своей архитектуре? – Bob
Simpy используйте его как метапараметр и попробуйте найти сетку, чтобы найти лучшую настройку :) –
если бы мой ответ был полезен - пожалуйста, примите его как правильно или проголосуйте за мой ответ :) –