2016-08-11 4 views
0

Я хочу обучить cnn за 20000 шагов. На 100-м шаге я хочу сохранить все переменные, и после этого я хочу повторно запустить мою модель восстановления кода и начать с 100-го шага. Я пытаюсь заставить его работать с документацией tensorflow: https://www.tensorflow.org/versions/r0.10/how_tos/variables/index.html, но я не могу. Любая помощь?Tensorflow: Как я могу восстановить модель для обучения? (Python)

+0

Вы пробовали выполнить шаги в этой документации по [сохранению и восстановлению модели TensorFlow] (http://stackoverflow.com/documentation/tensorflow/5000/saving-and-restoring-a-model-in-tensorflow# т = +201608112143154413759)? – mrry

+0

Это не то, что я хочу. Я хочу «приостановить» мое обучение каждые 100 шагов и т. Д. Сохранение и восстановление для следующего запуска моего кода. – chrisrn

+0

Я не уверен, как это отличается от сохранения и восстановления, как указал @mrry, за исключением того, что у вас могут быть контрольные потоки. Их можно легко сэкономить со встроенными функциями python/numpy, такими как numpy.save и т. Д. – cleros

ответ

0

Я застрял в чем-то подобном, но, возможно, этот link может вам помочь. Im новый в тензорном потоке, но я думаю, что вы не можете восстановить и поместиться без необходимости повторного обучения модели.

+0

Спасибо. Я не знал, что вы можете это сделать, используя DNNClassifier. Проблема здесь в том, что у меня есть цикл for, и я хочу, чтобы каждые 100 шагов перестали работать с моим кодом. После этого я хочу восстановить модель и продолжить с предыдущего шага. Классификатором, который я использую, является AdamOptimizer, и он не предоставляет model_dir paramater. – chrisrn

+0

Возможно, вы ищете контрольно-пропускные пункты? Я думаю, что я кое-что прочитал об этом раньше, но не пробовал это сам. Я быстро прочитал, и [это] (https://nathanbrixius.wordpress.com/2016/05/24/checkpointing-and-reusing-tensorflow-models/) может дать вам некоторые идеи. –

0

Эта функциональность по-прежнему нестабильна, и документация устарела, так что это сбивает с толку, что сработало для меня (это было предложение людей из Google, которое работает непосредственно с тензором) было использование параметра model_dir в конструкторе моих моделей перед обучением, в этом вы расскажете, где хранить свою модель, после обучения вы просто создаете экземпляр модели, используя тот же model_dir, и она восстановит модель из созданных файлов и контрольных точек.

+0

Пожалуйста, просмотрите мои ответы и узнайте, применимы ли они к вам: http://stackoverflow.com/questions/38358419/how-to-saverestore-dnnclassifier-trained-in-tensorflow-python-iris-example/38489883#38489883 –

+0

Как я уже говорил, я использую цикл for без DNNClassifier. Мой классификатор - AdamOptimizer, и он не предоставляет аргумент model_dir. Может быть, я должен попробовать с MetaGraph? – chrisrn

+0

Моя проблема упоминается здесь более точно: https://github.com/tensorflow/tensorflow/issues/3765 Посмотрите. Благодаря! – chrisrn

Смежные вопросы