Skip to content

Commit

Permalink
add cuda core info
Browse files Browse the repository at this point in the history
  • Loading branch information
szho42 authored Nov 13, 2018
1 parent a0b8922 commit 7cccb24
Showing 1 changed file with 8 additions and 5 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -31,15 +31,18 @@ GPU,图形显示芯片作为不同于CPU的设计逻辑和应用场景,有

![GPU的内存架构容量信息](./img/ch15/gpu_memory.png)

### 15.3.2 为什么要使用GPU?
### 15.3.2 CUDA 核心是什么?
上面提到在一个GPU芯片里,会很几千个CUDA核心,被分布在多个流处理单元(SM)中,比如上面提到早期的GTX980中的16个SM中各包含了128个CUDA核心。如下图所示,作为GPU架构中的最小单元,其实它的设计和CPU有着非常类似的结构,其中包括了一个浮点运算单元和整型运算单元,和控制单元。同一个流处理器中,所有的CUDA核心将同步执行同一个指令,但是作用于不同的数据点上。

哪些场景使用GPU
![CUDA简单介绍](./img/ch15/cudacore.jpg)

### 15.3.3 CUDA 核心是什么?
一般来说,更加多的CUDA核心意味着有更多的平行执行单元,所以也就可以片面地认为是有更加高的性能。但是,其实这个也是取决于很多方面,最重要的是算法在平行实现的时候有没有高效地调度和内存的使用优化。在现在我们使用的大部分GPU加速的深度学习框架里,包括Tensorflow,PyTorch等都是依赖于底层的GPU的矩阵加速代码的实现。为此Nvidia公司也是制定和实现了统一的接口,比如cuDNN,方便上层框架更好的利用GPU的性能。

### 15.3.4 新图灵架构里的tensor core对深度学习有什么作用
### 15.3.3 为什么要使用GPU

### 15.3.5 GPU内存架构和应用性能的联系?
哪些场景使用GPU

### 15.3.4 新图灵架构里的tensor core对深度学习有什么作用?


## 15.4 CUDA 框架
Expand Down

0 comments on commit 7cccb24

Please sign in to comment.