Я создаю модель в тензорном потоке со всеми слоями, имеющими relu как слой активации. Однако, когда размер партии увеличивается до 500, я хочу изменить модель таким образом, чтобы второй последний уровень к выходному слою имел сигмоидный уровень активации.Изменение модели во время обучения [tensorflow]
В чем я смущен, так что мне нужно повторно инициализировать все переменные, так как я заменяю оптимизатор посередине? Или я сохраняю старые переменные?
Вы можете использовать условное выражение для потока. Но ваша архитектура не будет работать, поскольку весы были обучены другой функции, поэтому изменение функции активации в основном приведет к сбросу процесса обучения. Вы просто возитесь или у вас есть твердая теория фона для этого изменения? – fabrizioM