Когда я поставил 'batch_size'
в deploy.prototxt file в Google глубокого сна bvlc_googlenet снизить требования к памяти GPU, это не имеет никакого влияния на требования скорости, ни памяти. Это как будто его игнорировали. Я знаю, что сам файл (deploy.prototxt) используется, потому что другие изменения отражены в результатах, так что это не проблема. Я также попытался установить batch_size во всех связанных слоях («inception_4c/1x1» и т. Д.), Опять же никакой разницы.Установка batch_size в data_param для Caffe не имеет никакого эффекта
Это, как я устанавливаю его:
layer {
name: "inception_4c/output"
type: "Concat"
bottom: "inception_4c/1x1"
bottom: "inception_4c/3x3"
bottom: "inception_4c/5x5"
bottom: "inception_4c/pool_proj"
top: "inception_4c/output"
data_param {
batch_size 1
}
}
Когда я время выполнения сценария, это то же самое с batch_size 1 и с batch_size 512, нет никакой разницы.
Что я делаю неправильно?
Это изменило выход «Память, требуемый для данных», чтобы оно что-то повлияло. Но процесс все еще заканчивается. Требуемая память теперь составляет всего 50 МБ, а графическая карта имеет емкость 4 ГБ, но у нее заканчивается память «syncedmem.cpp: 51] Ошибка проверки: ошибка == cudaSuccess (2 против 0) из памяти». Есть идеи? – Sergey
@Sergey Я не знаком с моделью/настройкой системы «глубокого сна». но похоже, что (а) вы делитесь графическим процессором с другими процессами? (b) возможно ли, что выделения памяти в GPU не являются «свободными»? – Shai
Согласно команде «nvidia-smi», память, потребляемая рассматриваемым скриптом python, проходит от 10 МБ (до) до 4 ГБ (при запуске скрипта). Он находится в серверной среде. – Sergey