Я запускаю свою программу в кластере. Каждый узел имеет 2 графических процессора. Каждая задача MPI заключается в вызове функции CUDA.Запуск ядра CUDA на распределенной памяти с MPI
Мой вопрос в том, будут ли выполняться два процесса mpi на каждом узле, будет ли каждый вызов функции CUDA запланирован на разных графических процессорах или они будут работать на одном и том же? А что, если я запускаю 4 mpi задачи на каждом узле?
Стоит отметить, что в поточном/технологическом эксклюзивном режиме вычислений не всегда необходимо управлять графическими процессорами явно: довольно часто просто позволяя драйверу выбрать устройство, это будет трюк. – aland
спасибо за ссылку фрагмента кода. Это было полезно. – zimbra314
@aland. В моем случае это не похоже, что хенген также испытывает подобную вещь. – zimbra314