1、并行计算
1)单核指令级并行ILP---让单个处理器的执行单元可以同时执行多条指令
2)多核并行TLP---在一个芯片上集成多个处理器核心,实现线程级并行
3)多处理器并行---在一块电路板上安装多个处理器,并实现进程和线程级并行
4)可借助网络实现大规模的集群或者分布式并行,每个节点就是一台独立的计算机,实现更大规模的并行计算。
多线程编程既可以在多个CPU核心间实现线程级并行,也可以通过超线程等技术更好的利用每一个核心内的资源,充分利用CPU的计算能力。
支持CUDA的GPU可以看成是一个由若干个向量处理器组成的超级计算机,性能也确实可以和小型的超级计算机相比。
GPU和CPU一般经北桥(主板上最大最重要的芯片,负责CPU和内存、显卡之间的数据交换,往往覆盖有散热片或风扇)通过AGP或者PCI-E总线连接,各自有独立的外部存储器,分别是内存和显存。
首先确定一个windowSize*windowSize大小的窗口,这里的windowSize是一个奇数,因此这个窗口一定会有一个中心的像素,中值滤波的过程就是不断的移动这个窗口,然后对窗口内的所有像素的像素值按照灰度级来排序,最后把排序后中间那个像素的灰度级赋值给窗口中心那个像素。这个就是中值滤波的意义。
2、CUDA基本概念
函数限定符
__device__ :声明某函数在设备上执行,只能从设备中调用
__global__ :将某函数声明为内核,在设备上执行,只能从宿主中调用
__host__ :host声明某函数在宿主上执行,只能从宿主中调用
变量类型限定符
__constant__限定符与__device__结合使用,声明变量:
驻留在常量内存空间中,具有应用程序的生命期,可通过运行时库被网格的所有线程访问,也可被宿主访问。
__shared__变量:
__shared__限定符可以与__device__结合使用,声明变量:
驻留在线程块的共享内存空间中,具有块的生命期,仅可被块内的所有线程访问。
执行配置
执行配置用于定义在设备上执行函数的网格和块的维度,以及相关的流。通过在函数名称和圆括号括起的参数列表之间插入<<<Dg, Db, Ns, S>>>形式的表达式,来定义执行配置。
Dg的类型是dim3,用于指定网格的维度和大小,因此Dg.x*Dg.y等于要启动的块数;Dg.z未使用。
Db的类型是dim3,用于指定每块的维度和大小,因此Db.x*Db.y*Db.z等于每块的线程数。
Ns的类型是size_t,用于指定为此调用按块动态分配的共享内存中的字节数以及静态分配的内存;此动态分配的内存由声明为外部数组的任何一个变量使用,Ns是默认值为0的可选参数。
S的类型是cudaStream_t,用于指定相关的流;S是默认值为0的可选参数。
内置变量
gridDim:此变量标示网格的维度,类型为dim3
blockIdx:此变量标示网格中的块索引,类型为uint3
blockDim:此变量标示块的维度,类型为dim3
threadIdx:此变量标示块中的线程索引,类型为unit3
时间函数
clock t clock();
返回在每个时钟周期递增的技术值。
在内核开始和结束时取此计数器的值,求二者之差,并记录每个线程的结果,从而计量设备完全执行每个线程所用的时钟周期数,单着并非设备实际执行线程指令所用的时钟周期数。前者大于后者,因为线程是分时执行的。
同步函数
void __syncthreads();
同步块中所有的线程。当所用线程都达到此同步点后,才继续执行后续代码。
3、CUDA编程模型
cuda在调用内核函数时,它将由N个不同的CUDA线程并行执行N次。在定义内核时,使用一种全新的<<<...>>>语法指定每次调用的CUDA线程数。
[cpp] view plaincopy
1. // Kernel definition
2. __global__ void vecAdd(float* A, float* B, float* C)
3. {
4. }
5.
6. int main()
7. {
8. // Kernel invocation
9. vecAdd<<<1, N>>>(A, B, C);
10. }
执行内核的每个线程都会被分配一个独特的线程ID,可通过内置的threadIdx变量在内核中访问此ID。
以下示例代码将大小为N的向量A和向量B相加,并将结果存储在向量C中
[cpp] view plaincopy
1. __global__ void vecAdd(float* A, float* B, float* C)
2. {
3. int i = threadIdx.x;
4. C[i] = A[i] + B[i];
5. }
6.
7. int main()
8. {
9. // Kernel invocation
10. vecAdd<<<1, N>>>(A, B, C);
11. }
执行vecAdd()的每个线程都会执行一次成对的加法运算。
4、CUDA线程结构
一般来说,threadIdx会设置成一个包含三个组件的向量。
下面的示例代码将大小为N*N的矩阵A和矩阵B相加,并将结构储存在矩阵C中
[cpp] view plaincopy
1. __global__ void matAdd(float A[N][N], float B[N][N],float C[N][N])
2. {
3. int i = threadIdx.x;
4. int j = threadIdx.y;
5. C[i][j] = A[i][j] + B[i][j];
6. }
7. int main()
8. {
9. // Kernel invocation
10. dim3 dimBlock(N, N);
11. matAdd<<<1, dimBlock>>>(A, B, C);
12. }
线程的索引和线程的ID有着直接的关系:
对一维块: 两者相同
对大小为(Dx,Dy)二维块: 索引:(x, y)ID : x + yDx
对大小为(Dx,Dy, Dz)的三维块 : 索引:(x, y, z) ID:x + yDx + ZDxDy
一个块中的所有线程都必须位于同一个处理器核心中。因而一个处理器核心的有限存储器资源制约了每个块的线程数量。在NVIDIA Tesla构架中,一个线程块最多可包含512个线程。
但一个内核可能由多个大小相同的线程块执行,因而线程总数应该等于每个块的线程数乘以块的数量。这些块将组织称为一个一维或二维的线程块网格。
该网格的维度由<<<...>>>语法的第一个参数指定。
网格内的多个块可由一个一维或二维索引标示,可通过内置的blockIdx变量在内核中访问此索引。可以通过内置的blockDim变量在内核中访问块的维度。
此时,之前的示例代码应该改为:
[cpp] view plaincopy
1. __global__ void matAdd(float A[N][N], float B[N][N],
2. float C[N][N])
3. {
4. int i = blockIdx.x * blockDim.x + threadIdx.x;
5. int j = blockIdx.y * blockDim.y + threadIdx.y;
6. if (i < N && j < N)
7. C[i][j] = A[i][j] + B[i][j];
8. }
9. int main()
10. {
11. // Kernel invocation
12. dim3 dimBlock(16, 16);
13. dim3 dimGrid((N + dimBlock.x – 1) / dimBlock.x,
14. (N + dimBlock.y – 1) / dimBlock.y);
15. matAdd<<<dimGrid, dimBlock>>>(A, B, C);
16. }
实际上在CUDA中应该使用由cudaMallocPitch()分配的空间存储二维数组中的数据。
总体来说就是:
一个grid中有多个block,可以为一维,二维,三维
一个block中有多个thread,可以为一维,二维,三维
grid中的block个数由gridDim确定(最多二维)
grid中的block定位使用blockIdx来确定
block中的thread个数由blockDim确定(最多三维)
block中的thread定位使用threadIdx来确定
5、矩阵运算
计算两个维度分别为(wA,hA)和(wB,wA)的矩阵A和B的乘积C的任务以下列方式分为多个线程:
1、每个线程块负责计算C的一个子方阵Csub;
2、块内的每个线程负责计算Csub的一个元素。
选择Csub的维度block_size等于16,以便每块的线程数是warp大小的倍数,且低于每块的最大线程数
如图所示Csub等于两个矩阵的乘积:A的子矩阵(wA,block_size)与Csub具有相同的行索引,B的子矩阵(block_size,wA)与Csub具有相同的列索引。为了适应设备的资源,这两个矩形矩阵可根据需要划分为许多维度的block_size的方阵,并且Csub计算为这些方阵的乘积之和。其中每个乘积的执行过程是:首先使用每个线程加载每个方阵的一个元素,将两个相应的方阵从全局内部加载到共享内存,然后让每个线程计算结果为方阵的一个元素。每一线程将其中每个乘积的结果累计到寄存器中,执行完毕后,将结果写入全局内存。
通过这种方式分块计算,我们可以有效利用快速的共享内存,并节省许多全局内存带宽,因为A和B仅从全局内存读取(wA/block_size次)
[cpp] view plaincopy
1. // Thread block size
2. #define BLOCK_SIZE 16
3. // Forward declaration of the device multiplication function
4. __global__ void Muld(float*, float*, int, int, float*);
5. // Host multiplication function
6. // Compute C = A * B
7. // hA is the height of A
8. // wA is the width of A
9. // wB is the width of B
10. void Mul(const float* A, const float* B, int hA, int wA, int wB,float* C)
11. {
12. int size;
13. // Load A and B to the device
14. float* Ad;
15. sizeof(float);
16. void**)&Ad, size);
17. cudaMemcpy(Ad, A, size, cudaMemcpyHostToDevice);
18. float* Bd;
19. sizeof(float);
20. void**)&Bd, size);
21. cudaMemcpy(Bd, B, size, cudaMemcpyHostToDevice);
22. // Allocate C on the device
23. float* Cd;
24. sizeof(float);
25. void**)&Cd, size);
26. // Compute the execution configuration assuming
27. // the matrix dimensions are multiples of BLOCK_SIZE
28. dim3 dimBlock(BLOCK_SIZE, BLOCK_SIZE);
29. dim3 dimGrid(wB / dimBlock.x, hA / dimBlock.y);
30. // Launch the device computation
31. Muld<<<dimGrid, dimBlock>>>(Ad, Bd, wA, wB, Cd);
32. // Read C from the device
33. cudaMemcpy(C, Cd, size, cudaMemcpyDeviceToHost);
34. // Free device memory
35. cudaFree(Ad);
36. cudaFree(Bd);
37. cudaFree(Cd);
38. }
39. // Device multiplication function called by Mul()
40. // Compute C = A * B
41. // wA is the width of A
42. // wB is the width of B
43. __global__ void Muld(float* A, float* B, int wA, int wB, float* C)
44. {
45. // Block index
46. int bx = blockIdx.x;
47. int by = blockIdx.y;
48. // Thread index
49. int tx = threadIdx.x;
50. int ty = threadIdx.y;
51. // Index of the first sub-matrix of A processed by the block
52. int aBegin = wA * BLOCK_SIZE * by;
53. // Index of the last sub-matrix of A processed by the block
54. int aEnd = aBegin + wA - 1;
55. // Step size used to iterate through the sub-matrices of A
56. int aStep = BLOCK_SIZE;
57. // Index of the first sub-matrix of B processed by the block
58. int bBegin = BLOCK_SIZE * bx;
59. // Step size used to iterate through the sub-matrices of B
60. int bStep = BLOCK_SIZE * wB;
61. // The element of the block sub-matrix that is computed
62. // by the thread
63. float Csub = 0;
64. // Loop over all the sub-matrices of A and B required to
65. // compute the block sub-matrix
66. for (int a = aBegin, b = bBegin;
67. a <= aEnd;
68. a += aStep, b += bStep) {
69. // Shared memory for the sub-matrix of A
70. float As[BLOCK_SIZE][BLOCK_SIZE];
71. // Shared memory for the sub-matrix of B
72. float Bs[BLOCK_SIZE][BLOCK_SIZE];
73. // Load the matrices from global memory to shared memory;
74. // each thread loads one element of each matrix
75. As[ty][tx] = A[a + wA * ty + tx];
76. Bs[ty][tx] = B[b + wB * ty + tx];
77. // Synchronize to make sure the matrices are loaded
78. __syncthreads();
79. // Multiply the two matrices together;
80. // each thread computes one element
81. // of the block sub-matrix
82. for (int k = 0; k < BLOCK_SIZE; ++k)
83. Csub += As[ty][k] * Bs[k][tx];
84. // Synchronize to make sure that the preceding
85. // computation is done before loading two new
86. // sub-matrices of A and B in the next iteration
87. __syncthreads();
88. }
89. // Write the block sub-matrix to global memory;
90. // each thread writes one element
91. int c = wB * BLOCK_SIZE * by + BLOCK_SIZE * bx;
92. C[c + wB * ty + tx] = Csub;
93. }