2016-07-20 2 views
1

Я только что начал работу в CUDA. Теперь у меня есть вопрос. У меня матрица N * N, а масштаб окна - 8x8. Я хочу разбить эту матрицу на несколько подматриц и найти максимальное значение этого. Например, если у меня есть матрица 64 * 64, поэтому у меня будет 8 небольших матриц с 8 * 8 шкалой и узнать 8 максимальных значений. Наконец, я сохраняю все значения max в новом массиве, но его порядок всегда изменяется. Я хочу, чтобы найти решение, чтобы держать их в правильном порядкеНайти max матрицы в CUDA

__global__ void calculate_emax_kernel(float emap[],float emax[], int img_height, int img_width,int windows_size) 
{ 
    int x_index = blockIdx.x*blockDim.x+threadIdx.x; 
    int y_index = blockIdx.y*blockDim.y+threadIdx.y; 

    int num_row_block = img_height/windows_size; 
    int num_col_block = img_width/windows_size; 
    __shared__ float window_elements[256]; 
    __shared__ int counter; 
    __shared__ int emax_count; 

    if (threadIdx.x == 0) emax_count = 0; 
    __syncthreads(); 
    int index; 
    int emax_idx = 0; 


    if(y_index >= img_height|| x_index >= img_width) return; 
    for(int i = 0; i < num_row_block; i++) 
    { 
     for(int j = 0; j < num_col_block; j++) 
     { 
      counter = 0; 
      if(y_index >= i*windows_size && y_index < (i+1)*windows_size 
        && x_index >= j*windows_size && x_index < (j+1)*windows_size) 
      { 
       int idx = y_index*img_height + x_index; 
       index = atomicAdd(&counter, 1); 

       window_elements[index] = emap[idx]; 
       __syncthreads(); 


       // reduction 
       unsigned int k = (windows_size*windows_size)/2; 
       while(k != 0) 
       { 
        if(index < k) 
        { 
         window_elements[index] = fmaxf(window_elements[index], window_elements[index+k]); 

        } 
        k /= 2; 
       } 
       if(index == 0) 
       { 
        emax[i*num_row_block+j] = window_elements[index]; 
       } 
      } 
      __syncthreads(); 
     } 
     __syncthreads(); 
    } 
    __syncthreads(); 
} 

Это моя конфигурация

void construct_emax(float *input,float *output, int img_height, int img_width) 
{ 
    int windows_size = 4; 
    float * d_input, * d_output; 
    cudaMalloc(&d_input, img_width*img_height*sizeof(float)); 
    cudaMalloc(&d_output, img_width*img_height*sizeof(float)); 

    cudaMemcpy(d_input, input, img_width*img_height*sizeof(float), cudaMemcpyHostToDevice); 
    dim3 blocksize(16,16); 
    dim3 gridsize; 

    gridsize.x=(img_width+blocksize.x-1)/blocksize.x; 
    gridsize.y=(img_height+blocksize.y-1)/blocksize.y; 

    calculate_emax_kernel<<<gridsize,blocksize>>>(d_input,d_output,img_height,img_width,windows_size); 

} 
+0

Вы хотите сказать: «У меня будет маленькая матрица 8x8 с шкалой 8 * 8 и узнать 8x8 max values»? – kangshiyin

+0

@kangshiyin извините, это трудно объяснить, это означает, что я разделил входную матрицу на некоторую небольшую матрицу, она зависит от размера окна. Например, если у меня есть 16 * 16 матрица и размер 8 * 8, поэтому у меня будет 4 маленькая матрица. И узнать максимальное значение каждой малой матрицы. –

+0

Какова конфигурация сетки/блока? – kangshiyin

ответ

2

С CUDA, parallel reduction сложно; segmented parallel reduction сложнее. Теперь вы делаете это в 2-D, а ваш сегмент/окно меньше, чем блок потока.

Для большого размера окна, я не думаю, что это проблема. Вы можете использовать один блок потока для уменьшения одного окна. Например, если у вас есть окно 16x16, вы можете просто использовать блок потока 16x16. Если у вас еще больший размер окна, например 64x64, вы все равно можете использовать блок потока 16x16. Сначала уменьшите окно 64x64 до 16x16 элементов во время загрузки данных, а затем уменьшите до 1 скаляра в блоке потока.

Для размера окна, меньшего размера блока, вам потребуется уменьшить несколько окон на блок потоков для повышения производительности. Вы можете использовать текущую конфигурацию блока/сетки, где каждый блок с 256 потоками (16x16) отвечает за 16 окон 4x4. Но это не оптимально, потому что каждая обертка из 32 нитей организована в две части (2x16). Это не подходит для coalesced global memory access, и трудно отобразить деформацию 2x16 для одного или нескольких окон 4x4 для эффективного параллельного сокращения.

В качестве альтернативы я бы предложил использовать 1-D блок нити с 256 потоками. Каждый m нитей уменьшает один m x m окно. Затем вы можете использовать 2-мерную сетку для покрытия всего изображения.

const int m = window_size; 
dim3 blocksize(256); 
dim3 gridsize((img_width+255)/256, (img_height+m-1)/m); 

В функции ядра, вы можете

  1. уменьшить каждое окно m х m к 1x m вектора во время глобальной загрузки данных;
  2. использование дерева сокращение метод для уменьшения 1x m вектор скаляр.

Этот код является концептуальной демонстрацией, которая работает, когда m является мощностью 2 и m <= 32. Вы можете дополнительно изменить его для произвольного m и лучше провести проверку границ.

#include <assert.h> 
#include <cuda.h> 
#include <thrust/device_vector.h> 

__global__ void calculate_emax_kernel(const float* input, float* output, 
             int height, int width, int win_size, 
             int out_width) { 
    const int tid = threadIdx.x; 
    const int i = blockIdx.y * win_size; 
    const int j = blockIdx.x * 256 + tid; 
    const int win_id = j % win_size; 

    __shared__ float smax[256]; 

    float tmax = -1e20; 
    if (j < width) { 
    for (int tile = 0; tile < win_size; tile++) { 
     if (i + tile < height) { 
     tmax = max(tmax, input[(i + tile) * width + j]); 
     } 
    } 
    } 
    smax[tid] = tmax; 
    for (int shift = win_size/2; shift > 0; shift /= 2) { 
    if (win_id < shift) { 
     smax[tid] = max(smax[tid], smax[tid + shift]); 
    } 
    } 
    if (win_id == 0 && j < width) { 
    output[blockIdx.y * out_width + (j/win_size)] = smax[tid]; 
    } 
} 

int main() { 
    const int height = 1024; 
    const int width = 1024; 
    const int m = 4; 
    thrust::device_vector<float> in(height * width); 
    thrust::device_vector<float> out(
     ((height + m - 1)/m) * ((width + m - 1)/m)); 

    dim3 blocksize(256); 
    dim3 gridsize((width + 255)/256, (height + m - 1)/m); 

    assert(m == 2 || m == 4 || m == 8 || m == 16 || m == 32); 
    calculate_emax_kernel<<<gridsize, blocksize>>>(
     thrust::raw_pointer_cast(in.data()), 
     thrust::raw_pointer_cast(out.data()), 
     height, width, m, (width + m - 1)/m); 

    return 0; 
} 
Смежные вопросы