阿西莫夫的机器人三定律和Mobileye的自动驾驶五原则


    很多科幻小说作家的想象,最终在现实世界中得到了应验。
    大师级科幻小说作家阿西莫夫有过一个思考,对于AI驱动的机器人,除了应该不断提升机器本身的智力水平之外,让其更好用之外,在其和人类打交道的时候,还需要一个更宏观的,在技术至上的指导原则。他在短篇小说集《我,机器人》中写了这样一组规则,称为“机器人三定律”:
    1. 机器人不得伤害人类,或者不得置人类于危难中;
    2. 机器人必须服从人类的命令,除非与第一定律冲突;
    3. 机器人可以在不与第一、第二定律冲突情况下维护自身存在。
    1985年,阿西莫夫又出版了《机器人与帝国》,在书中他将三大法则扩张为四大法则,增加了第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害,构成更加完整的机器人四定律。
    虽然机器人三定律、四定律在很多有关于人工智能的电影和文学作品中屡屡出现,但也一直停留在想象阶段,并没有被实际应用过。一方面的原因,是在很长一段时间里,机器的智力水平还没有高到能和人类社会日常生活的息息相关;另外一个原因,则是由于阿西莫夫的原则只是简单的语言符号,并未构成严密的逻辑闭环。
    但这并不妨碍阿西莫夫的思考成为一种新学科“机械伦理学”的基础,一门以人类为中心,关于机器人的建造和使用的学科,其核心就是如何安全的应用智能机器。
    自动驾驶,数据是基石,但并不是全部
    而Mobileye公司,正在试图在自动驾驶领域,书写堪比机器人三定律,甚至更精确的规则。
    这个月的月初,至顶网(赛博故事母平台)拜访了Mobileye,一家创立于 1999 年,总部位于以色列的高科技公司。该公司的主要业务为辅助驾驶系统和自动驾驶开发所需要的计算机视觉、机器学习、数据分析、定位与地图建模等技术。2017 年的 3 月,Mobileye被英特尔公司斥资 153 亿美元收购,并与后者的自动驾驶事业部(ADG)合并,形成新的自动驾驶部门,由 Mobileye 联合创始人、董事长兼首席技术官阿姆侬·沙书亚(Amnon Shashua)教授领导。
    图注:Mobileye 联合创始人、董事长兼首席技术官阿姆侬·沙书亚教授
    很长时间以来,自动驾驶汽车的安全可靠性,一直被认为只和数据量密切相关。这是由于这一次由机器学习、深度学习带来人工智能浪潮的本质来是使用统计学方法对数据的利用,让机器通过“吃掉”海量的数据来总结模式和规律。只要数据足够多,也就是路测的里程足够长,自动驾驶汽车就会更安全。沙书亚在和我们交流中表示,在自动驾驶这件事上,“把任务完全交给统计学是不可行的”,不能只有数据训练,还要有一些常识原则,否则会面临极大的发展障碍。
    障碍之一在于经济性,“要让人类信任自动驾驶汽车,安全性至少要比人类司机好100倍。如果用统计学方法来实现,这就意味着1亿小时的路测,假设路测时每小时行驶30公里,路测的距离是30亿公里”, 沙书亚做了一个简单的计算来证明经济上的不可能性,毕竟30亿公里,相当于绕地球跑了7万圈还不止。
    障碍之二来自于黑箱问题,沙书亚认为统计学之上的AI “既不透明、也不公开”。现在的深度学习是基于数据的自动编程,一种方式成功了,我们知道它有效,但是我们不知道它为什么有效,反之,如果它失败了,我们也不知道它为什么失效,唯一能做的就是不断调整参数,加大数据量,试图让结果更尽如人意,但实际上我们对其“内在”一无所知。
    但对自动驾驶而言,透明是非常重要的。毕竟驾驶这件事太复杂了,涉及到社会安全,涉及到驾驶员、乘客、路人,以及涉及交通部门、汽车公司甚至保险公司等利益相关方。一旦车辆发生事故,我们却无法向涉事相关方解释缘由,也无法界定责任,进而很难让自动驾驶赢得社会信任。
    在自动驾驶汽车,很可能成为人类第一个要考虑如何与其安全相处的智能机器之际。Mobileye试图在统计学之上,增加一些人类可以理解的规则,发布了它RSS—— Responsibility Sensitive Safety模型,中文翻译为责任敏感安全模型。RSS中所制定的各种规则,正如同阿西莫夫的“机器人三定律”,其核心目的也是安全。
    RSS,机器可以读懂的数学安全“定律”
    在之前发表的由沙书亚教授参与撰写的论文“On a Formal Model of Safe and Scalable Self-driving Cars”中,和后续来自Mobileye公司的演讲说明中,我们得知RSS模型为实现这样的 “目标”而设定:
    1. 自动驾驶汽车本身不能导致事故(它可以是事故中的一方,但不是导致事故的一方);
    2. 自动驾驶汽车应该在其它车辆发生错误时(导致事故),做出正确反应,避免发生更严重的事故。如果用一句话来总结,就是自动驾驶汽车永远不应为一场事故负责。
    之所设立这个目标,可以理解为是要解决自动驾驶的可行性。不导致事故,就意味着自动架设汽车不会为事故承担责任,这在基础上卸下了监管部门、汽车公司的压力。
    但如果没有合理的方式,仅靠这句文字符号,无从保证自动驾驶汽车可以沿着这个目标迈进。所以自动驾驶汽车就需要能回答这样几个问题:1,什么是可能发生事故的危险情况;2,遇到问题时,什么是正确的反应;3,以及最后,也是非常重要的,既然自动驾驶汽车要避免成为导致事故的一方,那么如何认定事故中的责任方?(即如何避免成为责任方)
    为实现这些目的,在这篇论文中,RSS规定了这样五条基本常识性原则:
    1. 别追尾(追尾前车无责)。
    2. 别突然并道,导致后车追尾(这是前车责任)。
    3. 拥有“路权”,但别刻意争取路权。(英文是:right-of-way is given,not taken)。如果举例来说明,前车加塞,或许“可以不让路,但是为了保证安全,可以让速。
    4. 小心视觉盲区。
    5. 如果能避免事故又不会伤及他人,那一定要努力避免。
    需要注意的是,RSS并非只是看似简单的文字符号描述,而是由强大的数学逻辑来保证可实现,像下图这样的公式(关于安全车距),在论文中处处可见。沙书亚也强调,必须遵守基于三方面的原则对这些常识进行公式化,包括合理性、有效性和可验证性。而有了这些常识准则,自动架设汽车的决策系统,就可以避开单纯依靠统计学AI实现安全驾驶的低效性。
    自动驾驶汽车的监管、共识和价值
    毫无疑问,由于涉及社会公共安全,自动驾驶是政府一定会介入监管的领域。
    在我们走访Mobileye公司的过程中,发生了比较重要的新闻。Mobileye和大众宣布共同合作首个自动驾驶网约车服务(也称为出行即服务,MaaS)。沙书亚认为这个项目的重点在于,这是全球第一个由政府参与的自动驾驶MaaS项目。以色列政府承诺将为此成立专门的委员会,讨论监管壁垒、监管架构支持MaaS发展。
    对于自动驾驶汽车这样的新生事物,沙书亚认为监管的松紧程度是非常重要的。如果为了安全,过于看重监管,很可能一事无成。这方面来看,美国相对放松,欧洲则是重重监管,过松或者过严都会保证一事无成(过松导致事故频发让公众失去信心,过严则让产业毫无创新机会)。而以色列做了制度上的创新,由政府介入来确保项目在安全性和可行性的平衡,“做到了创新型监管(制度创新)”。
    在沙书亚眼中,新的技术要求,让政府法律的合理监管体系,和技术上的严密数学逻辑,组成了一门重要的新学科——“法规科学”(regulatory science),一门把法律和高等数学结合在一起的新学科,正如阿西莫夫催生了机械伦理学一样。沙书亚希望RSS不是Mobileye一家之言,而是成为全球自动驾驶产业的共识,作为一项“常识规则”,认同的人越多,安全性和可用性就越能得到保证。Mobileye现在正在同主机厂合作,同行业供应商合作(百度4个月前宣布将采用Mobileye的RSS模型),甚至同美国、中国等监管机构进行合作,来开展这样推动共识,协同创新的工作。
    同样发生在我们到达Mobileye之时,北京公交集团、北太智能也同时到访Mobileye,三方共同签署了谅解备忘录,建立合作伙伴关系。用北太智能的运营总监李华的话来说,“建立一个基础交通大数据的基础设施”。
    在以色列,我体会到了两种驾驶体验。
    第一次是自驾,以色列并非是一个司机开车循规蹈矩的国度,当我们一行人在异国他乡小心自驾时,时不时被后边响起的鸣笛声催促,甚至被逆行超车。所以当我把这个自动驾驶网约车相关新闻发到朋友圈时,有位在以色列工作过的朋友说,在这里开发自动驾驶,绝对是好地方,有足够丰富的路测场景。
    第二次是乘上了Mobileye平台支持的自动驾驶汽车。在没有人类司机干预的情况下,我们乘坐的福特汽车在马路上自由穿梭。甚至在一次变线时,其反应速度远远超过人类。而事后复盘一想,这丝毫不值得奇怪,毕竟这辆汽车的摄像头可以实时兼顾前后两百米的路况,根本无需像人类一样转向之前,还要匆忙再看一眼后视镜。
    实际上,自动驾驶汽车完全可能已经比人类司机更杰出了,只不过出于跨物种担心的缘故,我们需要自动驾驶汽车,比人类驾驶汽车的安全水平高一百倍,才能认可一个新司机的出现。就让人类“老司机”再保持最多不会超过十年的自信吧。