NVIDIA CUDA简介:
CUDA是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员现在可以使用C语言来为CUDA架构编写程序,C语言是应用最广泛的一种高级编程语言。所编写出的程序于是就可以在支持CUDA的处理器上以超高性能运行。 将来还会支持其它语言,包括FORTRAN以及C++。
CUDA的运用领域非常广泛
G80 | GT200 | GF100(Fermi) | |
---|---|---|---|
晶体管数目 | 681M | 1400M | 3200M |
双精度浮点性能 | N/A | 30 FMA ops/周期 | 256 FMA ops/周期 |
单精度浮点性能 | 128 MAD ops/周期 | 240 MAD ops/周期 | 512 FMA ops/周期 |
Warp调度器 | 1 | 1 | 2 |
共用存储器 | 16KB | 16KB | 16KB/48KB |
L1缓存 | N/A | N/A | 16KB/48KB |
L2缓存 | N/A | N/A | 768KB |
存取地址宽度 | 32B | 32B | 64B |
从这个表格里可以看到从CUDA1.0到3.0,单从规模和设计方面,都有质的巨变,CUDA核心从128个增加到了480个,专业卡则是512个,晶体管从而从6.81个发展到了32亿个,并且首次加入了GPU一级缓存和二级缓存。
我们今天就用测试来说明,谁才是真正的压片王。