У меня две машины. На каждой машине есть несколько карт Tesla. На каждой машине также есть карта InfiniBand. Я хочу общаться между графическими процессорами на разных машинах через InfiniBand. Точно указать одноадресную рассылку будет хорошо. Я, конечно же, хочу использовать GPUDirect RDMA, чтобы избавиться от дополнительных операций копирования.Как использовать GPUDirect RDMA с Infiniband
Я знаю, что есть driver, доступный сейчас от Mellanox для своих карт InfiniBand. Но он не предлагает подробного руководства по разработке. Также мне известно, что OpenMPI поддерживает функцию, которую я задаю. Но OpenMPI слишком большой вес для этой простой задачи, и он не поддерживает несколько графических процессоров в одном процессе.
Интересно, могу ли я получить помощь непосредственно с помощью драйвера для связи. Пример кода, учебник, все будет хорошо. Кроме того, я был бы признателен, если бы кто-нибудь мог помочь мне найти код, связанный с этим в OpenMPI.
Это звучит как-то, о чем вы должны поговорить с Mellanox около – talonmies
Код в основном находится в [openib] (https://svn.open-mpi.org/trac/ompi/browser/branches/v1. 8/ompi/mca/btl/openib) Компонент BTL. Ищите вещи, которые имеют 'gdr' в своих именах и для условно скомпилированных блоков с' CUDA' или 'GRD' в имени символа препроцессора. –
Обратите внимание, что запрос на ресурсы вне сайта (например, учебные пособия) рассматривается здесь не по теме, что делает ваш вопрос пограничным вне темы. – njuffa