- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
CUDA编程介绍;GPU和CPU的比较
Cuda编程模型
核函数的定义以及调用
线程结构
线程通信(共享内存)及同步
--向量点积运算的实例;GPU与CPU的比较;为什么使用GPU;GPU编程模型;核函数的定义及调用;线程结构;线程结构;// Kernel definition
global void MatAdd(float A[N][N], float B[N][N],float C[N][N])
{
int i = threadIdx.x;
int j = threadIdx.y;
C[i ][ j ] = A[i][ j ] + B[i ][ j ];
}
int main()
{
...
// Kernel invocation with one block of N * N * 1 threads
int numBlocks = 1;
dim3 threadsPerBlock(N, N);
MatAddnumBlocks, threadsPerBlock(A, B, C);
...
};线程结构;线程结构;// Kernel definition
_global_ void MatAdd(float A[N][N], float B[N][N],float C[N][N])
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
int j = blockIdx.y *blockDim.y + threadIdx.y;
while(iNjN)
{
C[i ][ j ] = A[i][ j ] + B[i ][ j ];
i+=blockDim.x*gridDim.x;
j+=blockDim.y*gridDim.y;
}
}
int main()
{
...
// Kernel invocation
dim3 threadsPerBlock(32, 32); //32*32=1024
dim3 numBlocks(256, 256); //256*256=65536
MatAddnumBlocks, threadsPerBlock(A, B, C);
...
}
;共享内存及同步;点积运算程序
;完成块内线程同步之后,需要对cache内的全部元素进行求和,此处采用归约运算。;;;;;;
文档评论(0)