- 1、本文档共21页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
刘超俊-cuda编程剖析
CUDA编程介绍;GPU和CPU的比较
Cuda编程模型
核函数的定义以及调用
线程结构
线程通信(共享内存)及同步
--向量点积运算的实例;GPU与CPU的比较;为什么使用GPU;GPU编程模型;核函数的定义及调用;线程结构;线程结构;// Kernel definition
global void MatAdd(float A[N][N], float B[N][N],float C[N][N])
{
int i = threadIdx.x;
int j = threadIdx.y;
C[i ][ j ] = A[i][ j ] + B[i ][ j ];
}
int main()
{
...
// Kernel invocation with one block of N * N * 1 threads
int numBlocks = 1;
dim3 threadsPerBlock(N, N);
MatAddnumBlocks, threadsPerBlock(A, B, C);
...
};线程结构;线程结构;// Kernel definition
_global_ void MatAdd(float A[N][N], float B[N][N],float C[N][N])
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
int j = blockIdx.y *blockDim.y + threadIdx.y;
while(iNjN)
{
C[i ][ j ] = A[i][ j ] + B[i ][ j ];
i+=blockDim.x*gridDim.x;
j+=blockDim.y*gridDim.y;
}
}
int main()
{
...
// Kernel invocation
dim3 threadsPerBlock(32, 32); //32*32=1024
dim3 numBlocks(256, 256); //256*256=65536
MatAddnumBlocks, threadsPerBlock(A, B, C);
...
}
;共享内存及同步;点积运算程序
;完成块内线程同步之后,需要对cache内的全部元素进行求和,此处采用归约运算。;;;;;;
文档评论(0)