重磅:清华团队提出类脑计算系统新框架,通用人工智能或不再科幻
学术头条人脑,是自然界中最完美的信息处理系统,它可以执行各种各样的复杂任务,其计算效能要比现有数字计算系统高出几个数量级,被认为是目前唯一的“通用智能体”。
一直以来,通过模拟人脑信息处理方式,仿制像人脑一样具有“思维”、在工作性能上超越人脑的“类脑系统”,实现通用人工智能,是众多科学家毕生追求的梦想。
如今,来自清华大学、北京信息科学与技术国家研究中心、美国特拉华大学(University of Delaware)科研团队的一项突破性研究,或将加速类脑计算和通用人工智能(Artificial General Intelligence,AGI)的到来。
研究人员在类脑计算通用系统层次结构方向取得突破性进展,并提出了“神经形态完备性”(neuromorphic completenes)的最新概念。
(来源:Nature)
相关论文于 10 月 14 日在线发表在顶级科学期刊《自然》(Nature)上,清华大学教授、清华大学类脑计算中心主任施路平和清华大学计算机系研究员张悠慧为该论文的共同通讯作者。
更具鲁棒性与通用性的通用人工智能
通用人工智能是具备与人类同等智慧或超越人类的人工智能,通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结,能表现正常人类所具有的所有智能行为,是人工智能研究的主要目标之一,同时也是科幻小说和未来学家都在讨论的主要议题。
业内认为,当前的人工智能成果大都是“狭隘”的,即面向特定任务,只能解决特定问题。目前基于冯·诺依曼架构的计算机擅长解决有充足大数据、完整静态知识的确定性问题(比如深度学习在围棋比赛、图像识别等领域的应用)已经不逊于人类,但并没有能力很好地解决没有那么多数据、动态知识尚不足的模糊性问题。
未来,人工智能的发展必将从“狭隘”的弱人工智能走向更具鲁棒性与通用性的通用人工智能,但当前的人工智能技术距离达到人类水平的通用人工智能还有很长的路要走。
一直以来,类脑计算都被认为是打开通用人工智能的钥匙。去年 10 月,施路平在北京智源大会“智能体系架构与芯片专题论坛”中的主题演讲中曾表示,“基于碳基已经发展出现有的人类智能,基于硅芯片已经发展出强大的机器智能,一旦实现人类的全脑解析,采用类脑计算构建通用人工智能是完全没有障碍的。”
他还表示,通用人工智能的研究,从根本上来讲,不同于把很多的窄人工智能加在一起,其主要研究思路是把类脑的弹性和计算机的刚性结合起来,把数据驱动和知识推动结合起来,把通用知识和推理结合起来,这是一个非常有挑战的长期的研究。
如今,尽管类脑计算系统已与人工智能技术结合,并被业内专家认为可能提供一条通向通用人工智能的途径,在更通用算法的应用层面也有着一定的突破和发展,但要保证类脑计算系统的性能、可编程性和生产效率,仍然面临着不小的挑战和极高的要求。
尤其是,当前类脑计算的系统和芯片,虽然具体类型有所不同,但都比较侧重于端到端的软硬件协同设计方法,缺乏一种可以将算法、芯片和器件等不同领域技术和需求有机结合起来的软硬件系统层次结构设计。
而此次这一最新研究成果的提出,或许为通用人工智能的加速到来提供了可能。
全新概念:神经形态完备性
当前,几乎所有现有的编程语言都是图灵完备的,冯·诺依曼结构通过图灵完备的接口(即通用指令集)支持图灵机,通过引入图灵完备性以及基于图灵完备性的层次结构和冯·诺依曼体系结构,避免了当前计算系统中软件和硬件之间的紧密耦合,实现了高效、兼容和独立的进程,通过设置硬件(图灵完备性)的最低要求,在任何冯·诺依曼处理器(编译)上将任何高级语言的程序转换成等效的指令序列变得可行。
相比之下,类脑计算目前缺乏一个简单但健全的系统层次结构来支持整体开发,神经形态软件和硬件之间没有清晰完备的接口,不同研究方面之间的交互也比较复杂。
尽管各种基于类脑计算的算法、计算模型和软件设计不断出现,科研人员也研发出了各类神经形态芯片,但它们通常都需要特定的软件工具链才能正常运行。其结果是,类脑计算系统(包括应用程序模型、系统软件和神经形态设备)的各个层被紧密绑定在了一起,影响了软件和硬件之间的兼容性,损害了类脑计算系统的编程灵活性和开发效率。
一些研究试图通过特定领域的语言或开发框架连接各种软件和硬件,但这些研究通常没有考虑系统的图灵完备性,在解决诸如硬件完备性、编程语言完备性和类脑计算的系统层次结构等更基本的问题上,近年来也几乎没有什么大的进展。而且,由于许多类脑芯片不是为通用计算而设计的,而且它们中很少提供传统的指令集,因此不清楚它们是否是图灵完备的,甚至不清楚图灵完备是否是必要的。
为解决上述问题,施路平、张悠慧等人在这项研究中提出了"神经形态完备性"的概念,这是一种更具适应性、更广泛的类脑计算完备性的定义,它降低了系统对神经形态硬件的完备性要求,提高了不同硬件和软件设计之间的兼容性,并通过引入一个新的维度——近似粒度(the approximation granularity)来扩大设计空间。
同时,他们也提出了一种全新的系统层次结构,这一结构包括软件、硬件和编译三个层次,具有图灵完备的软件抽象模型和通用的抽象神经形态结构。在该系统层次结构下,各种程序可以用统一的表示来描述,在任何神经形态完备的硬件上都能转换为等效的可执行程序,从而确保编程语言的可移植性、硬件的完备性和编译的可行性。
图|类脑计算系统和传统计算系统的层次结构(来源:Nature)
软件指的是编程语言或框架以及建立在它们之上的算法或模型。在这个层次上,他们提出了一种统一的、通用的软件抽象模式——POG 图(programming operator graph)——以适应各种类脑算法和模型设计。POG 由统一的描述方法和事件驱动的并行程序执行模型组成,该模型集成了存储和处理,描述了什么是类脑程序,并定义了如何执行。由于 POG 是图灵完备的,它最大程度地支持各种应用程序、编程语言和框架。
硬件方面,则包括所有类脑芯片和架构模型。他们设计了抽象神经形态体系结构(ANA)作为硬件抽象,包括一个 EPG 图(execution primitive graph),作为上层的接口来描述它可以执行的程序。EPG 具有控制-流-数据流的混合表示,最大化了它对不同硬件的适应性,且符合当前硬件的发展趋势,即混合架构。
编译层,是将程序转换为硬件支持的等效形式的中间层。为实现可行性,研究人员提出了一套被主流类脑芯片广泛支持的基本硬件执行原语(hardware execution primitives),并证明配备这套硬件的神经形态是完备的,并以一个工具链软件作为编译层的实例,论证了该层次结构的可行性、合理性和优越性。
对此,研究人员认为,这一层次结构促进了软硬件的协同设计,可以避免硬件和软件之间的紧密耦合,确保任何类脑程序都可以由图灵完备的 POG 在任何神经形态完备硬件上编译成一个等效和可执行的 EPG,也确保了类脑计算系统的编程可移植性、硬件完备性和编译可行性。
此外,他们也实现了工具链软件的设计,以支持不同类型的程序在各种典型的硬件平台上执行,证明了这一系统层次结构的优势。结合所提出的系统架构(包括软件和硬件抽象模型),扩充的完备性定义使图灵完备性软件与神经形态完备性硬件的等效转换成为可能,即实现了软件和硬件的去耦合。(学术君注:软硬件去耦合是计算机系统结构中非常重要的设计方法论,基于此,软件研发人员不需要考虑如何设计底层硬件,硬件开发人员也只需要遵循一定指令集规范,不用担心兼容性和上层软件开发的问题。)
这一设计理念使得系统不同方面之间的接口和划分更加清晰,他们希望在当前层次结构的基础上继续攻关,进一步提高类脑计算系统的效率和可兼容性,从而促进包括通用人工智能在内的各个应用方向的发展。
神经形态计算领域“重要一步”
对于这一最新研究成果,英国曼彻斯特大学(University of Manchester)计算机科学系博士奥利弗·罗兹(Oliver Rhodes)给出了高度评价,认为“这一方法让我们更接近利用类脑硬件所能取得的巨大成就”。
在他看来,这项研究的一个亮点为,施路平和张悠慧等人提出了具有完备性的连续统一体(continuum of completeness)——根据神经形态系统执行基本操作的准确性,可接受不同级别的算法性能,意味着新的层次结构可以使用所有可用的模拟和数字神经形态系统来实现,包括那些为执行速度或能源效率而牺牲精度的系统。
罗兹还表示,这一层次结构可以比较实现相同算法的等效版本的不同硬件平台,以及比较在同一硬件上实现的不同算法,这些都是对神经形态体系结构进行有效基准测试的关键任务,在原理证明实验中包括传统图灵完备的硬件(GPU)也是非常有价值的,因为这表明,在某些应用中,该层次结构可能被用来证明神经形态设备优于主流系统的优势。
另外,这一层次结构还可以将算法和硬件开发分割成独立的研究,如果要获得底层神经形态架构的好处,算法的规模和复杂性将需要随着时间的推移而增加,因此这种分离将帮助未来的研究人员专注于研究问题的特定方面,而不是试图找到完整的端到端解决方案。
尽管在神经形态计算领域,要把许多工业和学术研究小组的工作结合起来,还有很多工作要做,但罗兹认为,施路平和张悠慧等人此次提出这一层次结构,是朝着这个方向迈出的重要一步。
群雄角逐“类脑计算”
近年来,随着摩尔定律逐渐失效,冯·诺依曼结构带来的局限日益明显,存储墙、功耗墙、智能提升等问题,让当前计算机发展面临重大挑战。人们普遍认为,数字计算机能力的进步速度正在放缓,以摩尔定律为特征的计算机时代即将结束。
而从人类大脑中汲取灵感的类脑计算或神经形态计算,是一种有潜力打破冯·诺伊曼瓶颈并推动下一波计算机工程的计算模型和架构。
类脑计算的概念最早由美国计算机科学家、美国加州理工学院荣誉退休教授卡弗·米德(Carver Mead)于 1989 年出,但当时摩尔定律下的“计算危机”并未显现,相关研究也就并没有引起太多人的关注。直到 2004 年单核处理器主频停止增长,人们开始转向多核,寻求非冯诺依曼架构的替代技术,类脑计算这一概念才开始引起人们的关注。
如今,人工智能赋能下的类脑计算技术被认为是可能提供一条通向通用人工智能的途径,世界各国的科研学者和研究机构也相继开展脑相关研究并取得了一系列成果。国外主要有 IBM 的 TrueNorth、英特尔的 Loihi,以及 Braindrop、SpiNNaker 和 BrainScales 等,而中国在这一领域也处于世界前列。
自 2013 年 3 月全职入职清华大学、组建清华大学类脑计算研究中心后,施路平团队就始终从基础理论、类脑计算系统芯片和软件系统全方位进行类脑计算研究。
去年 8 月,施路平团队携手第三代“天机芯”登上《自然》杂志封面(《面向人工通用智能的异构天机芯片架构》(Towards artificial general Intelligence with hybrid Tianjic chip architecture),这是世界上首款异构融合类脑芯片,并通过自动驾驶自行车成功验证了通用智能的可行性。此次研究成果是施路平团队在类脑计算与通用人工智能领域的进一步探索。
今年 9 月,浙江大学联合之江实验室共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse),是目前国际上神经元规模最大的类脑计算机。
未来,随着人工智能与脑科学研究进一步发展,具有人类智慧的类脑系统和通用人工智能,或许并不是遥不可及的梦想。