10月17日,美国政府又开始制裁新一批中国企业,同样引起了行业的强烈谴责,其中在AI芯片禁令中新增了三条新规:
1、把性能密度作为出口管制的标准,就是单芯片超过300teraflops算力;性能密度超过每平方毫米370 gigaflops芯片都会管制
2、禁止英伟达向中国提供特供版的AI芯片:A100/A800/H800/H800/L40/L40S/RTX4090、英特尔Gaudi 2
3、芯片进出口许可范围扩大到40多个国家,并对其中21个国家提出芯片制造设备许可要求。
空闲的时候,大家喜欢谈论AI芯片,其实大部分人对于AI芯片并没有实质性的概念。AI芯片就是计算AI算法的芯片,近几年AI算力要求越来越高,据OpenAI推算,从2012年开始,全球AI算力平均每3个月便会翻一倍,远超算力增长速度。
计算任何算法的芯片,都归属于AI芯片,这既包括深度神经网络(DNN)、循环神经网络(RNN)、卷积神经网络(CNN),也包括脉冲神经网络 (SNN)
理论上来说,任何数字芯片都属于AI芯片,就比如说,CPU作为中央处理器,什么类型计算都能胜任,但计算AI的效率明显没有GPU高,所以服务器中都是使用CPU+GPGPU的形式,让GPGPU作为AI计算的主力。
AI芯片分类
因此,按照上述分类方法,AI芯片主要分为GPGPU(通用图形处理器)、FPGA(可编程逻辑器件)、ASIC(专用集成电路)、存算一体和类脑芯片几种。根据在网络中的位置,又可以分为云端AI芯片 、边缘和终端AI芯片。
GPGPU:与GPU不同,GPGPU就是将GPU图形显示部分“摘掉”,全力走通用计算,特别适合用在深度学习训练方面;
FPGA:可编程的灵活性是任何其它计算芯片无法替代的,同时它在AI领域也具备一定计算能力,但相对来说,FPGA的成本就相对高一些了,而且FPGA开发也很难,软件生态没有GPGPU的CUDA那么方便;
ASIC:性能强、功耗低,Gaudi 2就是一种ASIC,NPU也是加入神经单元的一种ASIC,不过针对特定算法计算,算法是无法修改的,想要做另一种算法就要再造一种ASIC芯片,前期开发需要FPGA辅助进行;
存算一体:能耗比极佳,能够突破存储墙和功耗墙,但目前只在自动驾驶领域有商业化;
类脑计算:性能更强、功耗更低,算法也变成了SNN,但全世界都在研究之中,还未商业化。