В белой бумаге TensorFlow указано, что градиенты рассчитываются по обратному пути с помощью правила цепи. Я визуализировал учебник «https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py» в Tensorboard и не смог узнать, действительно ли это происходит. Если в визуализации Tensorboard есть край, может ли поток данных в обоих направлениях? (как правило, я бы ожидать, направленные ребра) Является ли backpropagation реализованным в TensorFlow при использовании GradientDescentOptimizer?
Q
Является ли backpropagation реализованным в TensorFlow при использовании GradientDescentOptimizer?
0
A
ответ
1
Внутри коробки «GradientDescent» вы уже видели два «update_w» и «update_b» коробки, и вы задаетесь вопросом, почему стрелки указывают только на от переменных , но никто им не принадлежит.
В принципе, стрелки в тензоре показывают зависимости, а не как данные перемещаются. Много времени они похожи. Но это не похоже на simulink от MATLAB, если вы знакомы с ним. На графике нет циклов.
Итак, стрелки говорят: вы не можете запустить «update_w», пока не получите «w», «learning_rate» и «gradients».
«update_w» обновляет «w», там просто стрелка не показывает.
Обновление не идет назад и по стрелке. Рассмотрим:
x = tf.Variable(0,'x')
y = tf.Variable(1,'y')
set_x_eq_y =x.assign(y,name = 'set_x_eq_y')
Здесь график будет иметь стрелку от "y" до "set_x_eq_y". Нет стрелки, касающейся «x».
Смежные вопросы
- 1. LSTM Backpropagation in Tensorflow
- 2. Tensorflow GradientDescentOptimizer - как он подключается к tf.Variables?
- 3. TensorFlow - GradientDescentOptimizer - действительно ли мы находим глобальный оптимум?
- 4. Является ли addIceCandidate реализованным в Dartium?
- 5. Является ли List.Foreach (Делегат) реализованным в Mono?
- 6. Tensorflow: ValueError при использовании AdamOptimizer
- 7. Код backpropagation (through time) в Tensorflow
- 8. Является ли ReentrantReadWriteLock реализованным как прямая блокировка?
- 9. Является ли libpcap реализованным сокетом API?
- 10. Tensorflow: При использовании tf.expand_dims?
- 11. Почему мой GradientDescentOptimizer производит NaN?
- 12. Оптимизаторы в Tensorflow
- 13. Ошибка при использовании параметра Makefile в Tensorflow
- 14. Tensorflow падает при использовании sess.run()
- 15. Является ли System.Guid.NewGuid() всегда реализованным через UuidCreate() в Windows?
- 16. Является ли механизм Center-Surround реализованным в opencv?
- 17. Является ли Tachyon по умолчанию реализованным RDD в Apache Spark?
- 18. Является ли метод centroid реализованным в MySQL пространственном?
- 19. Является ли Railo Best реализованным в Linux или Windows?
- 20. Является ли HttpWebRequest реализованным по-разному в mono и .net?
- 21. Является ли Tensorflow загружаемым дважды в PyCharm?
- 22. Управление памятью при использовании GPU в TensorFlow
- 23. Является ли Multi Message MSI реализованным на Linux/x86?
- 24. Является ли ограничение DB оракула реализованным через триггер?
- 25. Является ли C++ is_lambda признаком, чисто реализованным как библиотека, невозможно?
- 26. Является ли java параллельный пакет реализованным с помощью блокировок?
- 27. Является ли порядок столбцов предсказуемым при использовании *?
- 28. Является ли OAuth неуместным при использовании HTTPS?
- 29. Градиент TensorFlow не отвечает при использовании while_loop
- 30. Ошибка при использовании Tensorflow с GPU