中美GPU差距超10年,ChatGPT与中国无关?

互联网乱侃秀

自从今年ChatGPT爆火之后,就有很多的网友有疑问,为何ChatGPT这样的AI应用,没有首先诞生在中国,不是说中国AI全球领先了么?
    

后来有人表示,还是GPU芯片的问题,因为ChatGPT背后,其实是GPU算力堆出来的,而中国的GPU芯片,与美国GPU芯片,至少有10年的差距,所以ChatGPT无法诞生在中国。
    
    

拿ChatGPT来说,其背后至少应用了3万块以上的Nvidia的A100这样的GPU芯片,而这种芯片是对中国禁销的,所以中国版ChatGPT难诞生。
    

但是,没有顶级的GPU芯片,中国版的ChatGPT就没法诞生了?当然不是的,这不百度就站出来打脸了。
    
    

前几天百度发布了文心一言,这是类似于ChatGPT的新一代大语言模型的生成式 AI,它具备在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的综合能力。
    

发布会的现场,李彦宏进行了演示,从现场展示来看,文心一言某种程度上具有了对人类意图的理解能力,并基于百度庞大的训练数据,直接进行总结、解答。
    
    

当然,最重要是,百度的文心一言背后,使用的是不是NVIDIA的GPU,也不是AMD的GPU,而是百度自研的芯片,它就是昆仑一号。
    

昆仑一号芯片是2020年量产的一颗通用AI芯片,是百度自研的,采用14nm工艺,实测有200多TOPS的实际的性能,对比业界最先进的T4的GPU(70TOPS左右),有T4芯片3倍的性能提升。
    

这种昆仑一号芯片,特别适合大模型做推理,也适合做训练,所以被百度用在了文心一言的大模型的推理上。
    
    

而使用昆仑一号,一方面不用担心被卡脖子了,毕竟使用NVIDIA、AMD的GPU,就相当于脖子被人卡住了,对方随时可以断供。
    

此外,还能够节省成本,比如买一块NVIDIA的A100芯片,需要1万多美元,近10万人民币,但按照百度的说法,使用昆仑一号芯片的话,可能只要2万元人民币就搞定了。
    
    

近日,百度也表示昆仑二号芯片,也即将来了,采用7nm工艺,与第一代芯片相比,性能提高了3倍,还带有高速片间互联,且有多款细分型号,覆盖云训练、云推理以及边缘计算等优势。
    

可见,也不是非得使用NVIDIA、AMD的GPU芯片,国产自研的AI芯片,也一样能够胜任的,要自信一点,国外的月亮并不比中国的圆。