2016-12-30 3 views
0

В настоящее время я использую Theano для машинного обучения, теперь я хотел попробовать факел.Установка использования графического процессора в программе обучения факельным машинам

В Теано есть возможность установить флаги для использования GPU памяти:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

Так Theano использует заданную мощность графического процессора, то здесь 90%. Однако в Torch аналогичная сеть использует нагрузку около 30% GPU.

Есть ли способ установить более высокую нагрузку на графический процессор в факеле, подобный Theano?

ответ

0

Факел будет использовать столько памяти GPU, сколько потребуется на основе стандартного распределителя.

Объем использования факела памяти не обязательно должен быть предварительно указан как пример, который вы делаете в Theano.

+0

Ах спасибо! Это объясняет, почему использование памяти увеличивается с размером сети автоматически. –

Смежные вопросы