人工智能在Hot Chips会上大放异彩


    来自伦敦的消息——今年Hot Chips大会的时尚风标从发言上可以看出来,一半的发言都集中在人工智能加速上。Hot Chips是微处理器设计人员的年度聚会,曾几何时,大会大部分的讨论都集中在PC和服务器CPU上。
    初创公司Cerebrus、Habana和UpMem都将推出新的深度学习处理器。 Cerebrus将发言描述备受期待的晶圆级整合器件。 Habana的推理芯片则已经发货,Habana会在大会上展示其培训后续工作。
    总部位于法国格勒诺布尔的UpMem将公布一款新的内存处理器,该款内存处理器据说用了DRAM,可做多种用途。 Graphcore曾收到邀请但却未准备好分享芯片的更多细节。
    这些创业公司将与英特尔等巨头展开竞争,英特尔将发言描述Spring Hill和Spring Crest,Spring Hill和Spring Crest是英特尔旗下基于Nervana架构的推理和训练芯片。阿里巴巴也将甚为罕见地披露一款嵌入式系统推理处理器。
    另外,华为、MIPS、Nvidia和Xilinx也都将提供旗下有关现有深度学习芯片的新细节。预计MLPerf集团的成员将描述他们的数据中心和嵌入式系统推理基准,这是继以前训练基准的后续。
    大会组织者希望华为的高级工程师能够谈谈华为的Ascend 310/910 AI芯片。但考虑到美中贸易战,目前还不清楚发言人是否能够获得签证或者会面临其他障碍。
    Nvidia目前凭借旗下的V100在人工智能训练芯片市场占据着主导地位。鉴于Nvidia的市场领先优势,该公司今年选择了不推出新芯片。因此,Nvidia只会描述针对推理任务的多芯片模块研究工作,Nvidia称多芯片模块可在0.32-128 tera-操作/秒的范围内提供0.11皮焦耳/操作。
    另外,美国三大顶级云计算提供商将提供有关旗下AI硬件的教程。三家提供商极少在不是他们举办的活动上谈这个话题,更不用说在有竞争对手发言的大会这样做了。
    谷歌将发言描述旗下的液冷式第三代TPU的详细信息。微软Azure的代表将讨论微软下一代FPGA硬件。亚马逊AWS的成员将谈及旗下的I/O和系统加速硬件。
    此外,Facebook工程师将描述Zion,Zion是在今年早些时候的开放计算峰会上宣布的多处理器训练系统。Hot Chips大会组织者表示,“Facebook及其开放计算合作伙伴在为数据中心服务器外形和互连方法敲定越来越多的标准。”
    Insight64的资深微处理器分析师Nathan Brookwood表示,“假若瑞普·凡·温克尔(Rip Van Winkle,华盛顿?欧文所著《见闻札记》短篇故事的主人公,沉睡20年之久)在1999年睡了过去现在醒过来,时下对所有对机器学习和人工智能的关注会让他感到震惊,他开始睡觉时,这些几乎都只是些研究课题。”
    他补充表示,但温克尔会对“今年Hot Chips大会议程上约一半的论文感到非常满意,因为这些论文是对过去会议相当直接的扩展。英特尔、AMD和IBM则仍在努力从温克尔已经知道的架构里获取更多性能。“
    其实PC和服务器在此次大会中仍然备受关注。 AMD将讨论Zen2,Zen2是用于客户端和服务器系统的下一代x86内核。 IBM将展示业界认为是Power 10的下一代服务器处理器。
    AMD的首席执行官Lisa Su将做主题演讲,是大会两个主题演讲中的一个。台积电公司研究小组的负责人也将就未来流程节点做主题演讲。
    其他还有许多有趣的发言将大会议程排得满满的。特斯拉将提供旗下最近披露的有关自动驾驶汽车芯片的详细信息。英特尔将在另一发言里提供有关微软Optane存储器及其新兴封装技术的更多细节。
    Hewlett-Packard Enterprise则将描述GenZ的第一个芯片组,GenZ是个分布式存储器和存储的开放接口,与许多新兴的存储器架构不兼容。另外,AyarLabs将描述旗下的TeraPHY高速互连。
    大会的一个小小尴尬,大会将在AMD和Nvidia讨论完他们的最新面向高性能计算的GPU以后闭幕。 Brookwood表示,GPU曾经专注于开发游戏芯片,高性能计算对GPU而言是个相当新的领域。具有讽刺意味的是, Hot Chips以前都是将这段时间预留给服务器CPU的。