英特尔/英伟达/AMD/IBM 逐鹿AI芯片战场


    5月下旬,在英特尔首届AI开发者大会(Intel AI DevCon 2018)上,其全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,英特尔正在开发第一个商用神经网络处理器产品英特尔Nervana NNP-L1000(Spring Crest),计划在2019年发布。据他表示,该芯片相较于去年10月推出的代号为“Lake Crest”专用人工智能芯片NNP优化实现3-4倍的训练性能。
    本月初,英伟达正式发布了全新AI芯片“Jetson Xavier”,在CEO黄仁勋看来:“这台小电脑,将成为未来机器人的大脑”,将该芯片的使用范围清晰定义在机器人领域。
    AMD近日公开了全球首款7纳米制程,名为“Radeon Vega”的GPU芯片原型。
    IBM在近日提出了全新的芯片设计,可以通过在数据存储的位置执行计算来加速全连接神经网络的训练。
    英特尔:深度学习训练性能提升100倍
    对于英特尔来说,想要在巨头扎堆的AI芯片战场上站稳脚跟并不容易。PC时代,英特尔以90%的市场份额几乎完全垄断了CPU市场,但随着GPU和各类可替代处理器的不断推陈出新,CPU的市场开始萎缩。
    正是发现了这一趋势,英特尔也开始依托产业平台转型,争取搭上人工智能的未来浪潮。收购“Nervana”便是浓墨重彩的一笔。
    2014年4月,Nervana以打造“深度学习专用硬件”为主营业务正式成立,从成立之初到三轮共2050万美元融资,到被英特尔收购。三年半时间,终于去年10月公布了Nervana NNP系列初代芯片“Lake Crest”,于去年年底开始出货。
    据了解,这款神经网络处理器的设计目的是为了快速解决AI应用遇到的数学问题,特别是神经网络,是目前比较流行的机器学习技术分支。
    在此基础上,本次AI开发者大会上Naveen Rao公开了英特尔新一代AI芯——英特尔Nervana NNP-L1000,代号为“Spring Crest”的专用人工智能芯片,与“Lake Crest”只供应给一小部分英特尔合作伙伴不同,“Spring Crest”成为英特尔第一款商用神经网络处理器,并计划在2019年发布。
    英特尔的目标是,到2020年将深度学习训练的性能提升100倍,具体实现路径是通过Crest的家族,与前代相比,新一代芯片将实现3-4倍的训练性能。
    英伟达:Titan+DRIVE+Jetson
    去年12月,英伟达推出了重磅产品“Titan V”PC GPU,该款GPU拥有110万亿次浮点运算性能,是其去年4月份公布的架构Titan Xp的9倍,和用于数据中心的英伟达Tesla V100 GPU一样,Titan V也更加清晰地面向AI。
    据黄教主介绍说,“Volta”系列的“创生”主要为推动高性能计算和人工智能的极限:“我们用新的处理器架构、指令、数字格式,以及存储器架构等打开新的局面。”
    在自动驾驶领域,英伟达的“DRIVE”系列也是各个性能爆表。去年10月,发布了“DRIVE PX Pegasus”自动驾驶平台,载了两颗Xavier芯片,以及Volta架构GPU,高配置让其拥有了高达320 TOPS的深度学习处理能力,这个数值是上一代DRIVE PX平台的数倍。而仅仅在两个月后的“CES 2018”上,黄教主在主题演讲中展示了NVIDIA最新的自动驾驶技术“DRIVE XAVIER”,在各种“核弹”级参数下,这款芯片在2018年Q1开始流片。
    PU
    AMD此次公开展示的全球首款7纳米制程的GPU芯片原型是对这个预言的应验。这款含有32GB高带宽内存的芯片,专为人工智能和深度学习设计,用于工作站和服务器。
    据了解,Vega性能相比上一代节点(14纳米)性能提高35%,能效提高两倍,密度也翻了一番。
    IBM:DNN算力是GPU100倍
    IBM在最近发表在Nature上的一篇论文中表示说,IBM Research AI团队用大规模的模拟存储器阵列训练深度神经网络(DNN),达到了与GPU相当的精度。
    用GPU运行神经网络的方法近年来已经通行人工智能领域,然而两者的组合其实并不完美。IBM 研究人员希望专门为神经网络设计一种新芯片,使前者运行能够更快、更有效,据研究人员称,IBM全新芯片可以达到GPU 280倍的能源效率,并在同样面积上实现100倍的算力。