2017-02-01 6 views
0

У меня есть небольшое знание использования GPU для обучения модели. Я использую K-средства от scikit-learn для обучения моей модели. Поскольку мои данные очень большие, можно ли обучать эту модель с помощью графического процессора, чтобы сократить время вычислений? или не могли бы вы предложить какие-либо методы использования мощности GPU?Использование GPU для обучения модели

Другой вопрос, если я использую TensorFlow для создания K-средств, как показано в этом блоге.

https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html

Он будет использовать GPU или нет?

Заранее спасибо.

+1

Вы должны иметь CUDA GPU включен. Не любой GPU. – zed

+0

Да. Мне интересно, как использовать его для вычисления моей модели, так как моя модель не изучает глубокое изучение использования Tensorflow. –

+0

Я считаю, что он использует GPU по умолчанию. См. Это: http://stackoverflow.com/questions/37660312/run-tensorflow-on-cpu – zed

ответ

0

Если у вас есть графический процессор с поддержкой CUDA с Compute Capability 3.0 или выше и установите версию Tensorflow, поддерживающую GPU, то он определенно будет использовать GPU для обучения.

Для дополнения информации о требованиях NVIDIA для запуска TensorFlow с поддержкой GPU проверить по следующей ссылке:

https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support

Смежные вопросы