前两部分是有关ILP隐藏计算和访存延迟,从而在GPU低占用率的情况下达到高并行度和吞吐率。下一部分是讨论在共享内存(shared memory)和寄存器(register)之间的权衡,作者从吞吐率的角度上说明使用共享内存达不到最好性能,最好降低占用率从而尽可能多的使用寄存器。


----------------------------------------------------------------------------------------------


3.使用更少线程运行更快

使用更少线程意味着每个线程拥有更多的寄存器。


每个线程的寄存器数:

GF100:在100%占用率时有20个,在33%占用率时63个,为3倍。

GT200:在100%占用率时有16个,在12.5%占用率时约有128个,为8倍

那么每个线程有更多的寄存器是不是更好呢?


只有寄存器的速度才能足够达到峰值。考虑这样一个计算: a*b+c:2个flops,12B输入,4B输出,则对于1.3Tflop/s的计算峰值,需要8.1TB/s的带宽,寄存器可以满足这样的要求,我们来看看共享内存(shared memory)能不能达到?

只有 4B*32banks*15SMs*half 1.4GHz = 1.3TB/s


需要的带宽和可以达到的带宽比较:



lz:可以看出共享内存的带宽是全局内存(显存)的7.6倍,而寄存器是共享内存的6倍,至少需要8TB/s的带宽才能让GPU的计算达到峰值,寄存器可以做到(废话,做不到这个计算峰值就根本不存在了)。


谬误:“事实上,对一个warp中的所有线程来说,如果线程间没有bank conflicts,访问共享内存和访问寄存器一样快。”(CUDA Programming Guide)

不,在Fermi架构中,共享内存的带宽比寄存器慢6倍以上。(非Fermi为3倍)


运行更快可能需要更低的占用率:

1.       必须使用寄存器才能接近峰值

2.       不同存储的带宽差距越大,越多的数据就必须从寄存器中读取

3.       而使用越多的寄存器意味着越低的占用率      


这常常可以通过每个线程计算更多的输出来完成。


对线程来说,越多的数据存放于寄存器意味着越少次数的共享内存访问。越少的线程,但每个线程做越多的工作,使得低占用率不成问题。


从Tesla到Fermi是一种倒退吗?

共享内存带宽和计算带宽的差距增加了:


使用快速的寄存器会有帮助,但寄存器的数目被严格限制:

G80-GT200: 每个线程最多128个寄存器

Fermi:每个线程最多64个寄存器