В настоящее время я использую Theano для машинного обучения, теперь я хотел попробовать факел.Установка использования графического процессора в программе обучения факельным машинам
В Теано есть возможность установить флаги для использования GPU памяти:
os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"
Так Theano использует заданную мощность графического процессора, то здесь 90%. Однако в Torch аналогичная сеть использует нагрузку около 30% GPU.
Есть ли способ установить более высокую нагрузку на графический процессор в факеле, подобный Theano?
Ах спасибо! Это объясняет, почему использование памяти увеличивается с размером сети автоматически. –