В настоящее время я реализую большую пользовательскую модель и ссылаюсь на пример с несколькими gpu CIFAR 10, который поставляется вместе с тензорным потоком. Однако код, который я в конечном итоге написал на основе этого, был не чистым и подвержен ошибкам. Напр. Я должен был найти каждую обучаемую переменную и добавить «с tf.device ('/ cpu: 0')».Tensorflow: Как написать чистый код для параллелизма нескольких графических процессоров?
Существуют ли более эффективные/более чистые способы адаптации для выполнения нескольких gpu?
Большое спасибо за любую поддержку.
Brilliant! Благодаря! Я попробую это. Удивление, если есть что-то похожее на [Прозрачное обучение с несколькими gpu с Keras/TF] (https://medium.com/@kuza55/transparent-multi-gpu-training-on-tensorflow-with-keras-8b0016fd9012#.zfmr798wv) – Sethu