青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

posts - 33,  comments - 33,  trackbacks - 0
這幾天研究了一下CUDA,發(fā)現(xiàn)其并行的思想和普通的CPU多線程思想不太一致,但還是挺不錯。主要是將任務(wù)劃分成一個個block,然后每個block里面再劃分成細(xì)的線程。然后每個線程做自己做的
事情。這種并行思想很適用于像矩陣運(yùn)算這些元素與元素之間的運(yùn)算并不耦合得很厲害,但整體數(shù)據(jù)很大的情況,這只是我對CUDA的初步感覺。
矩陣相乘的CPU程序如下:

//C = A*B
void MatrixMulCPU(float* _C,const float *_A,const float *_B,int _wa,int _ha,int _wb)
{
    
float sum = 0;
    
for (int i = 0; i < _ha; ++i)
    {
        
for (int j = 0; j < _wb; ++j)
        {
            sum 
= 0;
            
for (int k = 0; k < _wa; ++k)
            {
                sum 
+= (float)_A[i*_wa+k]*(float)_B[k*_wb+ j];
            }
            _C[i
*_wb+j] = (float)sum;
        }
    }
}

從上面可以看出,C(i,j) = sum { A(i,k)*B(k,j) } 0<=k < _wa;耦合程度很小,所以我們可以通過劃分區(qū)域的方法,讓每個線程負(fù)責(zé)一個區(qū)域。
怎么劃分呢?首先最初的想法是讓每一個線程計算一個C(i,j),那么估算一下,應(yīng)該需要height_c*width_c,也就是ha*wb個線程。進(jìn)一步,我們將矩陣按一個大方格Grid劃分,如果一個
方格Grid大小是16*16,那么矩陣80*48的可以表示為5(*16) * 3(*16),即16*16個大格子(block),每一個格子內(nèi),自然就是(height_c/16) *(width_c/16)個線程了。
好了,劃分完后,內(nèi)核代碼如下:
計算版本0:
__global__ void matrix_kernel_0(float* _C,const float* _A,const float *_B,int _wa,int _wb)
{
    
float sum = 0;
    
//找出該線程所在的行列
    int row = blockIdx.y*blockDim.y + threadIdx.y;
    
int col = blockIdx.x*blockDim.x + threadIdx.x;

    
//線程Thread(row,col)負(fù)責(zé)計算C(row,col)
    for (int i = 0; i < _wa; ++i)
    {
        sum 
+= _A[row*_wa + i]*_B[i*_wb + col];
    }
    _C[row
*_wb + col] = sum;
}

另外一種思路,我們不讓每一個線程完整計算一個C(i,j),通過C(i,j) = sum { A(i,k)*B(k,j) }發(fā)現(xiàn),我們還可以再細(xì)度劃分:
Csub(i,j) = sum{A(i,ksub+offsetA)*B(ksub+offsetB,j)}  0<=ksub < blockSize
C(i,j) = sum{Csub(i,j)}
就是把矩陣分成n*n個大的子塊,然后每一個block負(fù)責(zé)計算子塊i 和 子塊j的子乘積,計算完畢后加起來則可。這里主要使用了共享顯存作優(yōu)化。

計算版本1:
__global__ void matrix_kernel_1(float* _C,const float* _A,const float *_B,int _wa,int _wb)
{
    
int bx = blockIdx.x;
    
int by = blockIdx.y;
    
int tx = threadIdx.x;
    
int ty = threadIdx.y;

    
//該block要處理的A
    int aBegin = _wa*(by*BLOCK_SIZE);//A(0,by)
    int aEnd = aBegin + _wa - 1;
    
int aStep = BLOCK_SIZE;//offsetA

    
int bBegin = BLOCK_SIZE*bx;//B(bx,0)
    int bStep = BLOCK_SIZE*_wb;//offsetB
    
    
float cSub = 0;
    
for (int a = aBegin,b = bBegin; a <= aEnd; a += aStep,b += bStep)
    {
        __shared__ 
float As[BLOCK_SIZE][BLOCK_SIZE];
        __shared__ 
float Bs[BLOCK_SIZE][BLOCK_SIZE];
        
//每個線程負(fù)責(zé)一個元素拷貝
        As[ty][tx] = _A[a + _wa*ty + tx];
        Bs[ty][tx] 
= _B[b + _wb*ty + tx];

        __syncthreads();
        
        
//每個線程負(fù)責(zé)計算一個子塊i 和 子塊j的子乘積
        for (int k = 0; k < BLOCK_SIZE; ++k)
        {
            cSub 
+= As[ty][k]*Bs[k][tx];
        }

        __syncthreads();
    }

    
//全局地址,向全局寄存器寫回去
    
//一個線程負(fù)責(zé)一個元素,一個block負(fù)責(zé)一個子塊
    int cIndex = (by*BLOCK_SIZE + ty)*_wb + (bx*BLOCK_SIZE + tx);
    _C[cIndex] 
= cSub;
}


最后寫一個面向Host的接口函數(shù):

void matrixMulGPU(float* _C,const float *_A,const float *_B,int _wa,int _ha,int _wb)
{
    
float* d_a = myNewOnGPU<float>(_wa*_ha);
    
float* d_b = myNewOnGPU<float>(_wb*_wa);
    
float* d_c = myNewOnGPU<float>(_wb*_ha);
    copyFromCPUToGPU(_A,d_a,_wa
*_ha);
    copyFromCPUToGPU(_B,d_b,_wb
*_wa);
    dim3 threads(BLOCK_SIZE,BLOCK_SIZE);
    dim3 blocks(WC
/BLOCK_SIZE,HC/BLOCK_SIZE);
    matrix_kernel_0
<<<blocks,threads>>>(d_c,d_a,d_b,_wa,_wb);
    cudaThreadSynchronize();
    copyFromGPUToCPU(d_c,_C,_wb
*_ha);

    myDeleteOnGPU(d_a);
    myDeleteOnGPU(d_b);
    myDeleteOnGPU(d_c);
}


調(diào)用的主函數(shù)如下:
#include <stdio.h>
#include 
<cuda_runtime.h>
#include 
<cutil.h>
#include 
<cutil_inline.h>
#include 
<stdlib.h>
#include 
<time.h>
#include 
<math.h>
#include 
<string.h>
#include 
<Windows.h>
#include 
"CUDACommon.h"
#include 
"MatrixMulCPU.h"
#include 
"MatrixMulGPU.h"

void randomInit(float* _data,int _size)
{
    
for (int i = 0; i < _size; ++i)
    {
        _data[i] 
= rand()/(float)RAND_MAX;
    }
}

bool checkError(const float* _A,const float* _B,int _size)
{
    
for (int i = 0 ; i < _size; ++i)
    {
        
if (fabs(_A[i] - _B[i]) > 1.0e-3)
        {
            printf(
"%f \t %f\n",_A[i],_B[i]);
            
return false;
        }
    }
    
return true;
}

int main(int argc, char* argv[])
{
    srand(
13);
    
if(!InitCUDA()) {
        
return 0;
    }

    
float* A = myNewOnCPU<float>(WA*HA);
    
float* B = myNewOnCPU<float>(WB*HB);
    randomInit(A,WA
*HA);
    randomInit(B,WB
*HB);
    
float* C = myNewOnCPU<float>(WC*HC);
    memset(C,
0,sizeof(float)*WC*HC);
    
    
float* C2 = myNewOnCPU<float>(WC*HC);
    memset(C2,
0,sizeof(float)*WC*HC);
    
    unsigned 
int tick1 = GetTickCount();
    MatrixMulCPU(C2,A,B,WA,HA,WB);
    printf(
"CPU use Time : %dms\n",GetTickCount() - tick1);
    unsigned 
int timer = 0;
    cutilCheckError(cutCreateTimer(
&timer));
    cutilCheckError(cutStartTimer(timer));
    {
        matrixMulGPU(C,A,B,WA,HA,WB);
    }
    cutilCheckError(cutStopTimer(timer));
    printf(
"GPU use time: %f (ms) \n", cutGetTimerValue(timer));
    cutilCheckError(cutDeleteTimer(timer));

    
if (checkError(C,C2,WC*HC))
    {
        printf(
"Accept\n");
    }
    
else
    {
        printf(
"Worng Answer\n");
    }

    myDeleteOnCPU(A);
    myDeleteOnCPU(B);
    myDeleteOnCPU(C);
    myDeleteOnCPU(C2);

    
return 0;
}

運(yùn)算結(jié)果如下:
版本0:



版本1:


可以看出,GPU并行性能比CPU好很多,而且版本1優(yōu)于版本0

整個工程下載:/Files/bennycen/CUDAMatrixMul.rar
posted on 2011-07-26 17:01 bennycen 閱讀(4641) 評論(1)  編輯 收藏 引用 所屬分類: CUDA

只有注冊用戶登錄后才能發(fā)表評論。
網(wǎng)站導(dǎo)航: 博客園   IT新聞   BlogJava   博問   Chat2DB   管理


青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            国内自拍一区| 欧美一区二区三区日韩| 美女日韩欧美| 中日韩男男gay无套| 欧美高清在线视频| 在线欧美日韩精品| 久久成人精品电影| 亚洲欧美国产va在线影院| 欧美人与禽猛交乱配| 亚洲精品人人| 欧美国产一区二区在线观看| 久久国产一区二区三区| 国产午夜精品理论片a级大结局 | 午夜在线精品| 亚洲免费影院| 欧美网站大全在线观看| 亚洲视频视频在线| 亚洲无亚洲人成网站77777| 国产精品激情偷乱一区二区∴| 亚洲一区二区三区在线| 99国产精品一区| 国产精品日韩欧美大师| 午夜一区二区三视频在线观看| 亚洲视频一二| 国产精品一区二区a| 久久精品亚洲精品| 久久综合九色综合网站| 亚洲国产高清自拍| 亚洲精品网站在线播放gif| 欧美午夜三级| 久久天堂av综合合色| 麻豆av一区二区三区| 在线视频亚洲| 欧美在线高清| 亚洲另类视频| 亚洲伊人久久综合| 亚洲日本中文字幕免费在线不卡| 久久亚洲欧美| 美脚丝袜一区二区三区在线观看 | 夜夜爽www精品| 亚洲调教视频在线观看| 韩日精品中文字幕| 亚洲国产福利在线| 国产精品一二三视频| 欧美大胆a视频| 国产精品久久久久久久久久尿| 久久久一区二区三区| 欧美精选一区| 久热精品在线视频| 欧美日韩一区三区四区| 久久狠狠一本精品综合网| 欧美高清视频| 久久精品一区二区三区不卡牛牛 | 国产精品亚洲综合一区在线观看| 久久免费少妇高潮久久精品99| 免费日韩精品中文字幕视频在线| 亚洲综合激情| 欧美黄色aaaa| 久久久久久久久久码影片| 欧美精品久久一区二区| 久久精品日产第一区二区| 欧美日本国产精品| 麻豆精品在线观看| 国产美女诱惑一区二区| 亚洲激情在线播放| 激情懂色av一区av二区av| 一区二区三区产品免费精品久久75 | 欧美永久精品| 亚洲一二三区在线| 欧美mv日韩mv国产网站app| 欧美在线一区二区| 欧美日韩精品免费观看视频完整| 麻豆精品视频在线观看| 国产三级欧美三级| 中文一区在线| 国产精品99久久久久久白浆小说| 麻豆精品91| 免费在线观看日韩欧美| 国产农村妇女精品一二区| 日韩午夜在线视频| 日韩视频精品| 欧美国产亚洲精品久久久8v| 欧美不卡在线| 在线观看日韩专区| 久久久久在线观看| 老鸭窝毛片一区二区三区| 国产欧美一区二区精品性色| 99精品视频免费观看视频| 日韩视频免费观看| 欧美另类亚洲| 亚洲精品在线视频观看| 亚洲精品女人| 欧美日韩国产123| 亚洲精品一二三| 中文日韩在线| 蜜桃av一区二区| 1024国产精品| 看片网站欧美日韩| 亚洲第一精品福利| 最新国产精品拍自在线播放| 久久香蕉国产线看观看av| 欧美mv日韩mv亚洲| 亚洲精品久久嫩草网站秘色| 模特精品在线| 日韩网站免费观看| 午夜精品久久久久久久久久久| 国产精品日韩精品欧美在线| 午夜激情一区| 久久综合久久久久88| 亚洲风情亚aⅴ在线发布| 欧美高清成人| 亚洲午夜视频| 久久久人成影片一区二区三区观看| 黄色成人91| 欧美99在线视频观看| 一本久久青青| 久久久久欧美精品| 99re66热这里只有精品3直播| 欧美色另类天堂2015| 午夜亚洲影视| 亚洲黄色av一区| 欧美一区二区精品久久911| 永久免费视频成人| 欧美日韩福利| 久久精品成人欧美大片古装| 亚洲电影免费观看高清完整版在线观看 | 久久婷婷成人综合色| 亚洲国产成人av好男人在线观看| 亚洲手机在线| 国内精品久久久久久| 欧美福利视频在线| 亚洲免费在线电影| 欧美激情欧美狂野欧美精品| 亚洲在线观看免费| 亚洲国产精品www| 国产精品免费视频观看| 久久一区欧美| 亚洲永久在线| 亚洲精品国产品国语在线app| 欧美影院视频| 在线综合亚洲| 亚洲国产日韩欧美| 国产美女精品免费电影| 欧美精品日韩一区| 久久久国产精品亚洲一区 | 久久久爽爽爽美女图片| 亚洲乱码国产乱码精品精天堂| 国产日本亚洲高清| 欧美日韩综合| 免费观看国产成人| 欧美影视一区| 亚洲在线视频一区| 亚洲精品乱码久久久久久黑人 | 日韩亚洲欧美中文三级| 欧美大片在线观看一区| 久久av在线| 亚洲宅男天堂在线观看无病毒| 欧美影院视频| 欧美一区亚洲二区| 夜夜精品视频一区二区| 欧美激情一区二区| 久久综合九色综合欧美狠狠| 欧美一区二区在线播放| 亚洲一区欧美一区| 亚洲视频在线看| 99xxxx成人网| 99re热这里只有精品视频| 亚洲成色精品| 在线播放视频一区| 在线观看欧美激情| 伊人成年综合电影网| 国外成人在线视频| 国产在线日韩| 狠狠综合久久av一区二区老牛| 国产网站欧美日韩免费精品在线观看| 国产精品久久综合| 国产麻豆91精品| 国产香蕉久久精品综合网| 国产区亚洲区欧美区| 国产亚洲一区精品| 激情久久五月| 亚洲国产精品激情在线观看| 亚洲国产另类久久久精品极度| 亚洲国产精品成人综合色在线婷婷| 一区二区在线视频| 亚洲国产精品va在线看黑人| 亚洲精品视频一区二区三区| 亚洲精品一区二区三区99| 亚洲美女性视频| 亚洲综合国产| 久久久久一区二区三区| 欧美不卡三区| 亚洲人成网站在线播| 99国产精品99久久久久久粉嫩| 亚洲视频欧美视频| 久久精品视频亚洲| 欧美电影免费网站| 欧美午夜欧美| 狠狠色综合一区二区| 亚洲精品国精品久久99热一|