Я знаю, что ядра CUDA могут быть «перекрыты», помещая их в отдельные потоки, но мне интересно, можно ли передавать память во время выполнения ядра. Ядра CUDA являются асинхронными после завершения.Память передачи CUDA во время выполнения ядра
3
A
ответ
2
Вы можете запускать ядра, передавать их с хоста на устройство и передавать с устройства на хост одновременно.
http://developer.download.nvidia.com/CUDA/training/StreamsAndConcurrencyWebinar.pdf
1
Просто для уточнения, выше, действительны только если устройство поддерживает его. Вы можете проверить его выполнение запроса на устройство и проверку атрибута одновременной копии и выполнения
Смежные вопросы
- 1. CUDA: запись в общую память увеличивает время выполнения ядра много
- 2. Память во время выполнения
- 3. Выделить память во время выполнения
- 4. Память стека во время выполнения
- 5. Приоритет параллельного выполнения ядра CUDA
- 6. ManagedCuda: IllegalAddress; Во время выполнения ядра
- 7. Оптимизация выполнения времени ядра Cuda
- 8. Единая память cuda: поведение передачи памяти
- 9. Cuda: Изменение размера сетки во время выполнения
- 10. Статистика использования памяти GPGPU CUDA во время выполнения
- 11. Сделать модуль ядра загружаемым во время выполнения
- 12. Android: изменение параметра ядра во время выполнения
- 13. Идентифицировать незапущенную память во время выполнения
- 14. OpenCV 2.4.5 память ошибок во время выполнения
- 15. ZF2 передачи аргументов фабрики во время выполнения
- 16. Мотивация CUDA для многомерного выполнения ядра
- 17. Время выполнения ядра CUDA не изменяется на более крупном массиве
- 18. Почему время выполнения ядра CUDA увеличивается с последующими запусками?
- 19. Память CUDA (тип) для вычисления только устройства во время вызовов ядра (вычисление 1.1 или 1.2)
- 20. : непроизвольные CUDA изменение памяти во время ядер
- 21. Могут ли исполняемые блоки cuda прерываться во время выполнения?
- 22. Сроки ядра cuda изнутри ядра?
- 23. Ошибка ядра: недействительный аргумент, ошибка выполнения cuda
- 24. CUDA и графические ядра Порядок выполнения
- 25. Cuda - значения устройства 0 после выполнения ядра
- 26. Как наблюдать события и показатели CUDA для подраздела исполняемого файла (например, только во время выполнения ядра)?
- 27. AccessViolationException во время выполнения
- 28. Объем памяти Numba CUDA во время работы?
- 29. Как определить общую память CUDA с размером, известным во время выполнения?
- 30. Оптимизация ядра CUDA
Спасибо за информацию, я это знал, но всегда полезно повторять ее – paulAl