В CUDA C нетрудно определить общую память размера, указанного во время выполнения. Как я могу это сделать с Numba/NumbaPro CUDA?Объем памяти Numba CUDA во время работы?
То, что я сделал до сих пор, привело только к ошибкам с сообщением «Форма аргумента» должна быть постоянной ».
EDIT: Просто чтобы прояснить, что я хочу, это эквивалентно следующему в C CUDA (пример взят и адаптирован из here:
__global__ void dynamicReverse(int *d, int n)
{
extern __shared__ int s[];
// some work in the kernel with the shared memory
}
int main(void)
{
const int n = 64;
int a[n];
// run dynamic shared memory version
dynamicReverse<<<1,n,n*sizeof(int)>>>(a, n);
}
Возможно, вы должны спросить континуум-аналитический (это их продукт), но я предполагаю, что они не поддерживают его. – talonmies