英特尔迟到的三年:3.5亿美元买下前高通团队,AI芯片却迟迟未发


    准确来说,Nervana—英特尔砸了4.08亿美元(也有报道称3.5亿)买下的那家加州创企——他们那款专用AI芯片的大招已经憋三年半了。
    2014年4月,在Nervana获得首笔60万美元的成立之初,这家公司就宣布要打造一款“深度学习专用硬件”。而在2014年8月,在获得第二笔融资(330万美元)后,其CEONaveenRao就表示,“用户能在大约6个月后尝试到这些深度学习专用硬件。”
    三年多后,在经历了第三轮2050万美元融资并且被英特尔收购后,在今年10月17日,英特尔CEO科再奇在采访中表示,这块芯片在今年年底就会正式和用户见面。与此同时他还说,Facebook正在参与合作打造这款AI专用芯片。
    然而,随着2017年转眼就要余额不足,英特尔这款Nervana专用AI芯片的还是没有正式亮相。尤其是在欧美连珠炮假日季“感恩节-圣诞节-元旦”来临的12月底,我们可以大胆地假设一句——明年见(也许是2018CES?)
    不过,虽然大招一再推迟,但是英特尔集团上下依旧对于Nervana项目十分看重。英特尔CEO科再奇不仅在不同场合内一再为Nervana站台,而且在收购Nervana后短短几个月间,前NervanaCEO就被晋升为英特尔人工智能事业部总负责人,直接向科再奇汇报——在以资历排位著称的英特尔内,晋升速度堪称火箭。
    今天,我们就来扒一扒Nervana与这块英特尔专用AI芯片,同时也来看一看英特尔这三年多的等待和3.5亿美元的资金砸出了多大一个响来?也看看英特尔这个曾经PC时代当之无愧的霸主,如今能不能靠着Nervana在人工智能领域提刀再战?
    一、比GPU更好、更快、更强大
    深度学习分为训练(Training)和应用(Inference)两个阶段,Nervana芯片瞄准的是训练阶段,这一阶段需要计算机处理大量的数据,现有的CPU难以满足如此强大的计算需求,这也是英伟达靠着GPU崛起的重要原因。
    目前Nervana芯片主要应用在云计算数据机房内。NervanaCEONaveenRao曾经表示,Nervana使用的这种新型芯片设计架构比GPU更快、功耗更低、性能更好。
    根据英特尔在2016年11月的AIDay上,我们第一次了解到了这块Nervana深度学习专用芯片的设计架。这款芯片为2.5D封装,搭载了32GB的HBM2内存,内存带宽为8Tbps。芯片中没有缓存,完全通过软件去管理片上存储。它可以支持各类神经网络算法框架的加速,比如Nervana的Neon、谷歌的TensorFlow、Facebook的Caffe等。
    NervanaCEO表示,之所以这款芯片能够做到比更快CPU、比GPU更快地加速处理深度神经网络,原因有二:
    1、这块芯片由“处理集群”阵列构成,处理被称作“活动点(flexpoint)”的简化数学运算,基于张量处理器的架构。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。
    英特尔迟到的三年:3.5亿美元买下前高通团队,AI芯片却迟迟未发-芯智讯
    2、“互联(interconnect)”技术——这是Nervana芯片的真正亮眼之处,不过Nervana一直这一技术的细节讳莫如深——NaveenRao将这项互连技术描述为一种模块化架构,其芯片结构可以在编程上扩展成与其它芯片的高速串行连接,帮助用户创造更大、更多元化的神经网络模型。
    在GPU上,数据在芯片内部处理和芯片外部通信处理有很大的不同,必须将内存映射到I/O,在内存不同层次结构中移动数据,造成延时等复杂问题。而Nervana的互联技术能让芯片内的数据传输和芯片间的数据通信看起来一样,从而加快了处理速度。
    “正如在PC时代,人们发现用GPU处理图片比CPU更快,于是转而购买独立GPU;而在人工智能时代,人们会发现用我们的芯片处理深度神经网络比GPU更好,于是转而选择我们,”NaveenRao曾经这样说,“我们可以在硬件上打败英伟达。”
    如此看来,也许英特尔这三年多的等待和3.5亿美元的资金砸得不亏?——可以说亏,也可以说不亏。
    
    
    1  2  3  下一页>