Текущие потоки графического процессора как-то ограничены (ограничение памяти, ограничение структур данных, отсутствие рекурсии ...).алгоритмы графа на GPU
Как вы думаете, было бы возможно реализовать проблему теории графов на GPU. например, крышка верхушки? доминирующий набор? независимый набор? max clique? ....
Можно ли также использовать алгоритмы с ветвлением и границей на графических процессорах? Рекурсивный откат?
Давайте добавим этот, который появился в то же время: [Ускорение CUDA Graph Алгоритмы на максимальной варп] (Http: //citeseerx.ist.psu. Edu/viewdoc/скачать? дои = 10.1.1.220.1923 & Rep = Rep1 & Type = PDF). Для некоторых графиков он значительно улучшается по сравнению со вторым результатом, на который вы ссылаетесь. –