Я пытаюсь реализовать новый оптимизатор, который состоит из большой части метода Gradient Descent (что означает, что я хочу выполнить несколько шагов с градиентом спуска, а затем выполнять различные операции с выходом и снова). К сожалению, я нашел 2 части информации;Шаги для создания оптимизатора на TensorFlow
- Вы не можете выполнить определенное количество шагов с оптимизаторами. Неужели я ошибаюсь? Потому что это может показаться логичным вариантом.
- Учитывая, что 1 истинно, вам нужно закодировать оптимизатор с использованием C++ в качестве ядра и тем самым потерять мощные возможности TensorFlow (например, градиенты вычисления).
Если они оба истины, то 2 не имеет для меня никакого смысла, и я пытаюсь выяснить, каков правильный способ создания нового оптимизатора (алгоритм и все остальное кристально чисты).
Большое спасибо