forked from chenzomi12/AISystem
-
Notifications
You must be signed in to change notification settings - Fork 0
/
07.srt
1756 lines (1317 loc) · 28.1 KB
/
07.srt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1
00:00:00,000 --> 00:00:05,275
字幕校对:米哈游天下第一
2
00:00:05,275 --> 00:00:07,800
哈喽大家好,我是ZOMI
3
00:00:07,800 --> 00:00:11,600
今天还是在AI芯片的基础
4
00:00:11,600 --> 00:00:15,400
不过来到了AI芯片里面基础的最后一个内容
5
00:00:15,400 --> 00:00:18,400
计算体系架构的黄金十年
6
00:00:18,400 --> 00:00:21,400
其实从CPU到GPU到NPU
7
00:00:21,400 --> 00:00:24,000
可能DPU不在范围内
8
00:00:24,000 --> 00:00:27,200
随着这么多不同的架构的芯片组合在一起
9
00:00:27,200 --> 00:00:30,400
其实真正的来到了整个计算体系架构的
10
00:00:30,400 --> 00:00:32,600
真正的革命和演变的时代
11
00:00:32,600 --> 00:00:34,400
而为什么我会这么说呢?
12
00:00:34,400 --> 00:00:36,000
这个结论不是我说的
13
00:00:36,000 --> 00:00:38,600
而是图灵的得奖者David
14
00:00:38,600 --> 00:00:42,200
在计算机架构的黄金十年里面
15
00:00:42,200 --> 00:00:44,000
去讲到的一个概念
16
00:00:44,000 --> 00:00:45,600
而一年之后
17
00:00:45,600 --> 00:00:48,800
LLVM之父也同样的去发表了一篇报告
18
00:00:48,800 --> 00:00:51,200
叫做编译器的黄金十年
19
00:00:51,200 --> 00:00:53,800
非常欢迎大家去看看这两个视频
20
00:00:53,800 --> 00:00:58,000
这两个视频在YouTube上面都可以去看的
21
00:00:58,000 --> 00:01:00,000
接下来回到今天的重点
22
00:01:00,000 --> 00:01:02,600
AI芯片的发展
23
00:01:02,600 --> 00:01:05,600
其实AI芯片经历过三个阶段
24
00:01:05,600 --> 00:01:07,800
简单的去过一过
25
00:01:07,800 --> 00:01:10,200
第一个阶段就是AI芯片算力不足
26
00:01:10,200 --> 00:01:13,000
神级网络没有很好的被受到重视
27
00:01:13,000 --> 00:01:16,000
那个时候应该是1970年到1980年
28
00:01:16,000 --> 00:01:18,600
CPU还没有正式的获得出现
29
00:01:18,600 --> 00:01:23,400
而在第二个阶段就是CPU的算力大幅的提升
30
00:01:23,400 --> 00:01:25,000
应该在千禧年左右
31
00:01:25,000 --> 00:01:29,200
但是那个时候已经开始慢慢出现了一些AI的框架
32
00:01:29,200 --> 00:01:32,600
例如PyTorch的前身Torch
33
00:01:32,600 --> 00:01:34,600
在第二个阶段最大的问题就是
34
00:01:34,600 --> 00:01:36,800
CPU的算力虽然大幅的提升了
35
00:01:36,800 --> 00:01:39,000
但是没有办法去满足神经网络
36
00:01:39,000 --> 00:01:41,400
或者深度学习算力的增长需求
37
00:01:41,400 --> 00:01:42,800
到第三个阶段
38
00:01:42,800 --> 00:01:46,200
就是现在来到的一个AI产业的阶段
39
00:01:46,200 --> 00:01:48,200
GPU和AI的芯片
40
00:01:48,200 --> 00:01:50,400
整体的新的架构体系的出现
41
00:01:50,400 --> 00:01:53,600
推动了整个人工智能的快速落地
42
00:01:53,600 --> 00:01:56,000
现在算力越来越多
43
00:01:56,000 --> 00:01:58,800
能够从小模型演变到大模型
44
00:01:58,800 --> 00:02:01,600
到现在的基础模型了
45
00:02:01,600 --> 00:02:03,000
模型参数量
46
00:02:03,000 --> 00:02:05,600
动辄就已经上百亿千亿万亿了
47
00:02:05,600 --> 00:02:09,000
这种规模也是非常的惊人和夸张的
48
00:02:09,000 --> 00:02:11,400
接着讲完一些基础的内容
49
00:02:11,400 --> 00:02:13,600
来看看什么叫做异构
50
00:02:13,600 --> 00:02:16,000
今天的主角就是异构场景
51
00:02:16,000 --> 00:02:17,600
和具体的异构芯片
52
00:02:17,600 --> 00:02:19,200
下面以一个具体的例子
53
00:02:19,200 --> 00:02:21,000
来去看看这个问题
54
00:02:21,000 --> 00:02:24,000
以特斯拉这款芯片作为例子
55
00:02:24,000 --> 00:02:26,000
特斯拉可以看到一款车
56
00:02:26,000 --> 00:02:28,400
我在车里面要做很多相关的工作
57
00:02:28,400 --> 00:02:29,400
我要感知雷达
58
00:02:29,400 --> 00:02:30,200
我要做GPS
59
00:02:30,200 --> 00:02:31,600
我要做地图的建模
60
00:02:31,600 --> 00:02:34,200
我可能还会对IMU的数据进行处理
61
00:02:34,200 --> 00:02:37,200
所以说它的功能是非常多样化的
62
00:02:37,200 --> 00:02:38,400
面对这些功能
63
00:02:38,400 --> 00:02:42,200
特斯拉HW3 FSD芯片就推出了
64
00:02:42,200 --> 00:02:45,400
它不仅有自己的CPU、GPU还有NPU
65
00:02:45,400 --> 00:02:48,800
可能里面还会有ISP和Secure Processing Unit
66
00:02:48,800 --> 00:02:52,600
里面的功能单元非常非常的多
67
00:02:52,600 --> 00:02:56,600
下面这个图就是NPU的一个Data Flow的架构
68
00:02:56,600 --> 00:03:00,200
在一款芯片里面拥有这么多不同的IP
69
00:03:00,200 --> 00:03:04,200
叫这款IP或者这款芯片叫做异构的SoC
70
00:03:04,200 --> 00:03:08,400
这款芯片有非常多不同的IP进行组合
71
00:03:08,400 --> 00:03:11,600
进行配合才能够正常的工作起来
72
00:03:11,600 --> 00:03:15,000
这种情况叫做异构
73
00:03:15,000 --> 00:03:16,400
整个计算的体系
74
00:03:16,400 --> 00:03:18,400
因为应用场景越来越丰富
75
00:03:18,400 --> 00:03:20,200
因为计算的需求越来越多
76
00:03:20,200 --> 00:03:23,600
于是现在迎来了整个异构的体系
77
00:03:23,600 --> 00:03:25,600
异构的时代
78
00:03:25,600 --> 00:03:28,600
来看一下整个异构芯片的出现
79
00:03:28,600 --> 00:03:31,000
其实现在大部分的CPU
80
00:03:31,000 --> 00:03:33,000
都是采用冯诺依曼的架构
81
00:03:33,000 --> 00:03:34,000
冯诺依曼的架构
82
00:03:34,000 --> 00:03:37,200
基本上就是我按指令顺序的去执行
83
00:03:37,200 --> 00:03:39,600
虽然这种方式确实有点低效
84
00:03:39,600 --> 00:03:41,600
于是就出现了多核的处理器
85
00:03:41,600 --> 00:03:43,600
或者变成了一个集群的计算
86
00:03:43,600 --> 00:03:47,200
慢慢的去引入了并行计算这个概念
87
00:03:47,200 --> 00:03:48,400
并行计算这个概念
88
00:03:48,400 --> 00:03:51,400
其实一开始是出现在GPU
89
00:03:51,400 --> 00:03:54,800
但是GPU它其实自己是没有办法单独的工作的
90
00:03:54,800 --> 00:03:57,400
而是要跟CPU进行一个配合
91
00:03:57,400 --> 00:04:00,800
既然两种不同的架构在一起配合工作
92
00:04:00,800 --> 00:04:03,000
于是就迎来了第一种
93
00:04:03,000 --> 00:04:05,600
异构的芯片异构的工作流程
94
00:04:05,600 --> 00:04:07,000
下面来打开看一下
95
00:04:07,000 --> 00:04:09,000
它整体的GPU跟CPU的异构
96
00:04:09,000 --> 00:04:11,800
是怎么去互相配合的
97
00:04:11,800 --> 00:04:14,800
首先CPU要处理一些工作的时候
98
00:04:14,800 --> 00:04:17,375
它会把一些数据存在里面的DRAM
99
00:04:17,375 --> 00:04:17,400
在第一步就会把DRAM的数据搬运到HBM
100
00:04:17,400 --> 00:04:21,175
在第一步就会把DRAM的数据搬运到HBM
101
00:04:21,200 --> 00:04:25,600
也就是显存GPU的显示内存里面
102
00:04:25,600 --> 00:04:27,800
接着在第二步的时候
103
00:04:27,800 --> 00:04:31,400
CPU就会发射一些相对应的指令
104
00:04:31,400 --> 00:04:32,800
给到GPU的CUDA Core
105
00:04:32,800 --> 00:04:36,400
或者GPU的线程真正的去执行计算
106
00:04:36,400 --> 00:04:37,400
计算完之后
107
00:04:37,400 --> 00:04:39,400
GPU就会把相关的结果
108
00:04:39,400 --> 00:04:41,800
返回存储到HBM里面
109
00:04:41,800 --> 00:04:43,400
最后一步就是step4
110
00:04:43,400 --> 00:04:45,800
step4会把一些GPU计算完的结果
111
00:04:45,800 --> 00:04:47,800
返回给CPU
112
00:04:47,800 --> 00:04:51,400
这个时候GPU计算的是一些特殊的加速
113
00:04:51,400 --> 00:04:54,800
或者特殊的需要进行并行的一些计算的功能
114
00:04:54,800 --> 00:04:57,600
这个时候CPU跟GPU之间的异构
115
00:04:57,600 --> 00:04:59,600
就非常之明显了
116
00:04:59,600 --> 00:05:04,400
CPU主要是用来处理一些通用的应用逻辑程序
117
00:05:04,400 --> 00:05:06,800
而GPU在一开始出现的时候
118
00:05:06,800 --> 00:05:09,600
主要是来处理一些图形图像
119
00:05:09,600 --> 00:05:12,400
渲染的一些工作
120
00:05:12,400 --> 00:05:13,800
最近这五年
121
00:05:13,800 --> 00:05:15,600
又有非常多的芯片
122
00:05:15,600 --> 00:05:17,000
例如ASIC的芯片
123
00:05:17,000 --> 00:05:20,800
就迎来了一个真正能够帮助AI应用做加速的
124
00:05:20,800 --> 00:05:22,000
像谷歌的TPU
125
00:05:22,000 --> 00:05:24,000
就从第一代V1 V2 V3 V4
126
00:05:24,000 --> 00:05:25,400
到现在的V4
127
00:05:25,400 --> 00:05:30,000
有了非常多专门为AI应用做加速的芯片
128
00:05:30,000 --> 00:05:32,600
而这些芯片除了通用的IO之外
129
00:05:32,600 --> 00:05:34,200
它最重要的一个核心模块
130
00:05:34,200 --> 00:05:39,600
就是针对AI的一个专用处理引擎
131
00:05:39,600 --> 00:05:41,800
了解完什么是异构之后
132
00:05:41,800 --> 00:05:43,400
现在来看看
133
00:05:43,400 --> 00:05:45,400
何为超异构
134
00:05:45,400 --> 00:05:47,400
里面有一个最重要的字眼
135
00:05:47,400 --> 00:05:49,200
就是一个超字了
136
00:05:49,200 --> 00:05:50,200
那下面这个图
137
00:05:50,200 --> 00:05:53,600
可以看到超异构的整体的一个关系
138
00:05:53,600 --> 00:05:55,000
除了有CPU
139
00:05:55,000 --> 00:05:56,200
有协处理器
140
00:05:56,200 --> 00:05:57,400
后来有了GPU
141
00:05:57,400 --> 00:05:58,800
到现在的NPU
142
00:05:58,800 --> 00:06:00,400
但是后面还有一些DPU
143
00:06:00,400 --> 00:06:02,000
越来越多的芯片
144
00:06:02,000 --> 00:06:04,200
而越来越多的特殊的芯片
145
00:06:04,200 --> 00:06:06,800
主要是提供一些特殊的性能加速
146
00:06:06,800 --> 00:06:10,200
还有特殊的硬件的专用的处理
147
00:06:10,200 --> 00:06:12,200
针对某些应用场景
148
00:06:12,200 --> 00:06:13,600
越往右边走了
149
00:06:13,600 --> 00:06:17,400
这些芯片基本上就会越会针对某些应用
150
00:06:17,400 --> 00:06:18,800
或者某些计算场景
151
00:06:18,800 --> 00:06:21,200
做一些专用的硬件的提供
152
00:06:21,200 --> 00:06:24,400
它的性能也会更加的比一些通用的要高
153
00:06:24,400 --> 00:06:27,200
这个时候就迎来了一个最大的问题
154
00:06:27,200 --> 00:06:29,000
处理器的架构越来越多
155
00:06:29,000 --> 00:06:30,000
架构多了
156
00:06:30,000 --> 00:06:31,800
整个碎片化程度就会多
157
00:06:31,800 --> 00:06:35,000
构建整个生态的难度也会越来越大
158
00:06:37,000 --> 00:06:39,800
回顾一下异构计算的发展历史
159
00:06:39,800 --> 00:06:42,000
从CPU简单的IO
160
00:06:42,000 --> 00:06:44,000
这种叫做同构
161
00:06:44,000 --> 00:06:46,600
或者直接说是串行计算就行了
162
00:06:46,600 --> 00:06:48,200
它连构都不是
163
00:06:48,200 --> 00:06:52,200
接着迎来了GPU跟CPU协同合作
164
00:06:52,200 --> 00:06:55,200
这种慢慢的迎来了异构
165
00:06:55,200 --> 00:07:00,600
当然现在更多的是CPU跟NPU进行协作的
166
00:07:00,600 --> 00:07:02,400
这种也是属于异构
167
00:07:02,400 --> 00:07:06,200
CPU同时也可以跟GPU进行一个协作处理
168
00:07:06,200 --> 00:07:09,400
这种方式其实也属于一个异构的场景
169
00:07:09,400 --> 00:07:12,400
到未来或者未来接近的现在
170
00:07:12,400 --> 00:07:14,200
出现了超异构的架构
171
00:07:14,200 --> 00:07:16,600
中间连接的可能就已经不是CPU
172
00:07:16,600 --> 00:07:19,200
而是DPU数据处理单元
173
00:07:19,200 --> 00:07:21,000
数据处理单元可以跟GPU
174
00:07:21,000 --> 00:07:22,400
NPU还有IO
175
00:07:22,400 --> 00:07:25,000
CPU之间互相的协作
176
00:07:25,000 --> 00:07:28,200
而CPU又可以跟GPU进行互相的协作
177
00:07:28,200 --> 00:07:30,600
当然可能CPU会跟NPU
178
00:07:30,600 --> 00:07:33,400
或者NPU跟GPU进行互相的协作
179
00:07:33,400 --> 00:07:35,400
举一个非常简单的例子
180
00:07:35,400 --> 00:07:37,000
现在我有一个场景
181
00:07:37,000 --> 00:07:39,000
例如三维的场景
182
00:07:39,000 --> 00:07:39,800
NERV
183
00:07:39,800 --> 00:07:43,600
NERF现在可以用NPU进行三维的加速
184
00:07:43,600 --> 00:07:44,600
加速完之后
185
00:07:44,600 --> 00:07:48,000
我要显示的时候交给GPU进行处理
186
00:07:48,000 --> 00:07:49,800
GPU处理完之后
187
00:07:49,800 --> 00:07:52,200
最终返回给用户显示的应用
188
00:07:52,200 --> 00:07:55,000
由CPU进行调度
189
00:07:55,000 --> 00:07:58,000
这种场景就是超异构架构
190
00:07:58,000 --> 00:08:01,000
所会使用到的
191
00:08:01,000 --> 00:08:03,000
因此从刚才那个图
192
00:08:03,000 --> 00:08:04,200
可以看到计算
193
00:08:04,200 --> 00:08:08,200
从异构并行走向了超异构并行
194
00:08:08,200 --> 00:08:10,000
从简单的两层
195
00:08:10,000 --> 00:08:12,400
CPU加GPU或者CPU加NPU
196
00:08:12,400 --> 00:08:13,800
到现在的三层
197
00:08:13,800 --> 00:08:15,200
甚至更高层的
198
00:08:15,200 --> 00:08:17,800
CPU加GPU同时加上XPU
199
00:08:17,800 --> 00:08:20,000
就NPU TPU或者DPU
200
00:08:20,000 --> 00:08:22,000
同时协同的工作
201
00:08:22,000 --> 00:08:23,400
这个时候就真正的
202
00:08:23,400 --> 00:08:26,200
迈进了超异构并行架构里面了
203
00:08:26,200 --> 00:08:28,000
在整体的超异构计算里面
204
00:08:28,000 --> 00:08:31,600
其实这里面并不是简单的对一些芯片
205
00:08:31,600 --> 00:08:34,400
或者整个系统进行简单的集成
206
00:08:34,400 --> 00:08:37,600
而是把更多的异构计算重整起来
207
00:08:37,800 --> 00:08:40,200
变成一个新的架构体系
208
00:08:40,200 --> 00:08:41,600
各种各样的处理器
209
00:08:41,600 --> 00:08:43,800
非常之良好的配合的工作
210
00:08:43,800 --> 00:08:46,400
形成了整一个超异构计算的体系
211
00:08:46,400 --> 00:08:48,600
为什么要去强调计算体系呢
212
00:08:48,600 --> 00:08:51,200
因为它是一个整体的解决方案
213
00:08:51,200 --> 00:08:55,200
而不仅是把不同的芯片架构服务器堆叠起来
214
00:08:56,800 --> 00:08:58,000
在上面的内容里面
215
00:08:58,000 --> 00:08:59,800
其实讲了很多不同的概念
216
00:08:59,800 --> 00:09:02,400
这里面简单的做一个汇总
217
00:09:02,400 --> 00:09:03,600
那在第一个阶段
218
00:09:03,600 --> 00:09:05,200
就是由单引擎
219
00:09:05,200 --> 00:09:07,400
串行的单核的CPU
220
00:09:07,400 --> 00:09:08,800
到在第二个阶段
221
00:09:08,800 --> 00:09:10,600
就是同构并行
222
00:09:10,600 --> 00:09:13,200
所谓的同构可能就是多核的CPU
223
00:09:13,200 --> 00:09:15,800
或者多核的GPU独立的工作
224
00:09:15,800 --> 00:09:17,000
到第三个阶段
225
00:09:17,000 --> 00:09:19,800
也就是现在所处的阶段
226
00:09:19,800 --> 00:09:23,000
主要是两层的两种的类型的并行
227
00:09:23,000 --> 00:09:24,600
例如CPU加GPU
228
00:09:24,600 --> 00:09:27,200
或者CPU加NPU这种方式
229
00:09:28,200 --> 00:09:29,800
在未来或者现在
230
00:09:29,800 --> 00:09:32,000
正在处于的一个变革时代
231
00:09:32,000 --> 00:09:35,400
就是三种以上的三层以上的类型
232
00:09:35,400 --> 00:09:36,400
不同的处理器
233
00:09:36,400 --> 00:09:38,400
叫做超异构并行
234
00:09:38,400 --> 00:09:39,600
从CPU加GPU
235
00:09:39,600 --> 00:09:41,200
再NPU再DPU
236
00:09:41,200 --> 00:09:42,800
互相的配合工作
237
00:09:42,800 --> 00:09:44,800
就变成了超异构并行的架构
238
00:09:46,600 --> 00:09:48,400
这种超异构并行的架构
239
00:09:48,400 --> 00:09:49,800
有两个重要的特点
240
00:09:49,800 --> 00:09:53,400
第一个特点就是超大规模的计算集群
241
00:09:54,200 --> 00:09:57,800
第二个特点就是计算系统非常的复杂
242
00:09:57,800 --> 00:10:00,400
分块分层去组成的
243
00:10:00,400 --> 00:10:02,600
可能应用层会使用CPU
244
00:10:02,600 --> 00:10:03,600
特殊的应用加速
245
00:10:03,600 --> 00:10:05,200
会使用GPU ASIC
246
00:10:05,200 --> 00:10:06,400
还有DPU或者NPU
247
00:10:06,400 --> 00:10:07,400
各种各样的
248
00:10:07,400 --> 00:10:09,200
而基础的网络设施
249
00:10:09,400 --> 00:10:12,000
又会有独特的特殊的
250
00:10:12,000 --> 00:10:14,000
一些PU进行给处理