2016-07-20 5 views
1

CUDAで始まったばかりです。今私は質問があります。 私はN * Nの行列を持ち、ウィンドウスケールは8x8です。私はこの行列を複数の部分行列に細分し、この最大値を求めます。 たとえば、私は64 * 64行列を持っているので、私は8 * 8スケールの8つの小行列を持ち、8つの最大値を見つけます。最後に、すべての最大値を新しい配列に保存しますが、その順序は常に変更されます。私は、正しい順序でそれらを保つために解決策を見つけるたいのはCUDAで最大の行列を見つける

__global__ void calculate_emax_kernel(float emap[],float emax[], int img_height, int img_width,int windows_size) 
{ 
    int x_index = blockIdx.x*blockDim.x+threadIdx.x; 
    int y_index = blockIdx.y*blockDim.y+threadIdx.y; 

    int num_row_block = img_height/windows_size; 
    int num_col_block = img_width/windows_size; 
    __shared__ float window_elements[256]; 
    __shared__ int counter; 
    __shared__ int emax_count; 

    if (threadIdx.x == 0) emax_count = 0; 
    __syncthreads(); 
    int index; 
    int emax_idx = 0; 


    if(y_index >= img_height|| x_index >= img_width) return; 
    for(int i = 0; i < num_row_block; i++) 
    { 
     for(int j = 0; j < num_col_block; j++) 
     { 
      counter = 0; 
      if(y_index >= i*windows_size && y_index < (i+1)*windows_size 
        && x_index >= j*windows_size && x_index < (j+1)*windows_size) 
      { 
       int idx = y_index*img_height + x_index; 
       index = atomicAdd(&counter, 1); 

       window_elements[index] = emap[idx]; 
       __syncthreads(); 


       // reduction 
       unsigned int k = (windows_size*windows_size)/2; 
       while(k != 0) 
       { 
        if(index < k) 
        { 
         window_elements[index] = fmaxf(window_elements[index], window_elements[index+k]); 

        } 
        k /= 2; 
       } 
       if(index == 0) 
       { 
        emax[i*num_row_block+j] = window_elements[index]; 
       } 
      } 
      __syncthreads(); 
     } 
     __syncthreads(); 
    } 
    __syncthreads(); 
} 

これは私の設定CUDAで

void construct_emax(float *input,float *output, int img_height, int img_width) 
{ 
    int windows_size = 4; 
    float * d_input, * d_output; 
    cudaMalloc(&d_input, img_width*img_height*sizeof(float)); 
    cudaMalloc(&d_output, img_width*img_height*sizeof(float)); 

    cudaMemcpy(d_input, input, img_width*img_height*sizeof(float), cudaMemcpyHostToDevice); 
    dim3 blocksize(16,16); 
    dim3 gridsize; 

    gridsize.x=(img_width+blocksize.x-1)/blocksize.x; 
    gridsize.y=(img_height+blocksize.y-1)/blocksize.y; 

    calculate_emax_kernel<<<gridsize,blocksize>>>(d_input,d_output,img_height,img_width,windows_size); 

} 
+0

「8×8スケールの8×8小行列があり、8×8最大値がわかりますか」という意味ですか? – kangshiyin

+0

@kangshiyin申し訳ありませんが、説明するのは難しいです。つまり、入力行列をいくつかの小さな行列に分割し、ウィンドウのサイズに依存します。 たとえば、16 * 16の行列と8 * 8のウィンドウサイズがある場合、4つの小さな行列があります。各小行列の最大値を見つける。 –

+0

あなたはグリッド/ブロックの設定とは何ですか? – kangshiyin

答えて

2

parallel reductionはトリッキーです。 segmented parallel reductionはやわらかいです。今では2-Dでそれをやっていて、あなたのセグメント/ウィンドウはスレッドブロックよりも小さいです。

大きなウィンドウサイズの場合は問題ではないと思います。 1つのスレッドブロックを使用して1つのウィンドウを減らすことができます。たとえば、16x16のウィンドウを使用している場合は、単純に16x16のスレッドブロックを使用できます。さらに大きなウィンドウサイズ(64x64など)がある場合でも、16x16スレッドブロックを使用できます。まず、データロード中に64x64ウィンドウを16x16要素に縮小し、次にスレッドブロック内の1スカラに縮小します。

ブロックサイズより小さいウィンドウサイズの場合、パフォーマンス向上のためにスレッドブロックごとに複数のウィンドウを減らす必要があります。現在のブロック/グリッド構成を使用できます。各256スレッドブロック(16x16)は16個の4x4ウィンドウを担当します。しかし、32スレッドラップが2つのパート(2x16)で構成されているため、これは最適ではありません。これはcoalesced global memory accessには適しておらず、2x16ワープを1つ以上の4x4ウィンドウにマップするのは難しいです。

また、256スレッドの1-Dスレッドブロックを使用することをお勧めします。すべてのmスレッドは1つを減らすm x mウィンドウ。次に、2次元グリッドを使用して画像全体をカバーすることができます。カーネル関数で

const int m = window_size; 
dim3 blocksize(256); 
dim3 gridsize((img_width+255)/256, (img_height+m-1)/m); 

、あなたは

  1. は、グローバルデータのロード中に1×mベクトルに各m X mウィンドウを減らすことができます。
  2. 1x mベクトルをスカラに縮小するためのツリー縮小方法を使用します。

次のコードは、mが2の累乗で、m <= 32の場合に機能する概念的なデモです。任意のmとより良い境界チェックのためにそれをさらに修正することができます。

#include <assert.h> 
#include <cuda.h> 
#include <thrust/device_vector.h> 

__global__ void calculate_emax_kernel(const float* input, float* output, 
             int height, int width, int win_size, 
             int out_width) { 
    const int tid = threadIdx.x; 
    const int i = blockIdx.y * win_size; 
    const int j = blockIdx.x * 256 + tid; 
    const int win_id = j % win_size; 

    __shared__ float smax[256]; 

    float tmax = -1e20; 
    if (j < width) { 
    for (int tile = 0; tile < win_size; tile++) { 
     if (i + tile < height) { 
     tmax = max(tmax, input[(i + tile) * width + j]); 
     } 
    } 
    } 
    smax[tid] = tmax; 
    for (int shift = win_size/2; shift > 0; shift /= 2) { 
    if (win_id < shift) { 
     smax[tid] = max(smax[tid], smax[tid + shift]); 
    } 
    } 
    if (win_id == 0 && j < width) { 
    output[blockIdx.y * out_width + (j/win_size)] = smax[tid]; 
    } 
} 

int main() { 
    const int height = 1024; 
    const int width = 1024; 
    const int m = 4; 
    thrust::device_vector<float> in(height * width); 
    thrust::device_vector<float> out(
     ((height + m - 1)/m) * ((width + m - 1)/m)); 

    dim3 blocksize(256); 
    dim3 gridsize((width + 255)/256, (height + m - 1)/m); 

    assert(m == 2 || m == 4 || m == 8 || m == 16 || m == 32); 
    calculate_emax_kernel<<<gridsize, blocksize>>>(
     thrust::raw_pointer_cast(in.data()), 
     thrust::raw_pointer_cast(out.data()), 
     height, width, m, (width + m - 1)/m); 

    return 0; 
} 
関連する問題