无人车让驾驶变得更安全了还是更危险了?
AI锐见自动驾驶汽车本应使驾驶更加安全,但现实可能并不是这样。一些更为乐观的研究表明,仅在美国,自动驾驶汽车每年就能挽救数万人的生命。
但到目前为止,优步、谷歌,甚至可以说特斯拉,这些追求技术的大公司的文化已经直接导致了不必要的碰撞、伤害,甚至死亡。
让我们清楚这一点,这些公司已经获得了一项艰难的,潜在的“革命性”技术的通行证,但是,这些公司缺乏社会责任感。
这些公司的行为丧失了一些人的生命,在这个过程中,他们使整个领域的前景变得黯淡,削弱了公众对自动驾驶汽车的信任,并推迟了许多人希望拯救生命的技术的推出。
追求自动驾驶技术的最引人注目的公司接连失败,突显出一个事实:自动驾驶系统的安全性,取决于建造它们的人和组织。
优步的自动驾驶汽车部门可能不仅不计后果,而且完全玩忽职守。
据报道,该公司的管理人员无视来自其安全团队的详细电话,继续采取不安全措施,导致一名行人死亡。在此之前,许多事故和险些发生的事故都没有引起人们的注意。
据报道,在谷歌的自动驾驶汽车部门,至少有一名高管不受测试程序协议的约束,直接导致了一场严重的撞车事故,导致他的乘客受伤,而且从未通知警方这是由一辆自动驾驶汽车造成的事故。
据我所知,根据加州车管所的记录,Waymo(现在是谷歌的一家子公司)今年发生了21起撞车事故,不过其中只有一小部分是它造成的。
在两个不同的场合,特斯拉的半自动驾驶系统Autopilot在司机遭遇致命车祸时启动。
去年10月,佛罗里达州一名特斯拉车主在驾驶自动驾驶汽车时发生严重事故,随后起诉特斯拉,称该公司“欺骗了消费者”。让我们相信,它与特斯拉汽车一起提供的自动驾驶系统,以额外的成本,能够在高速公路上以最低的投入和监管,安全地运送乘客。(特斯拉当然驳斥了这种说法。)
这起案件更加复杂,因为特斯拉明确警告不要让系统完全驱动汽车,并安装了防护措施,以阻止此类不良驾驶行为。
然而,特斯拉继续在其网站上宣传,它提供“所有汽车上的全自动驾驶硬件”,而特斯拉自己的工程师告诉监管机构,他们预计一些司机将完全依赖该系统。然而,特斯拉公开否认,他们的系统可能会导致司机对其半自主系统产生任何危险的依赖。
难怪公众对自动驾驶汽车持谨慎态度。
伦敦大学学院(University College London)科技系高级讲师、即将推出的无人驾驶未来项目的首席研究员杰克·斯第尔戈(Jack Stilgoe)博士说,“目前,在美国进行车辆测试相当不计后果。”“哪些风险是可以接受的,由企业来决定。”“通常情况下,这些公司都明确认为,风险非常高是可以接受的。”
在自动驾驶汽车领域,有很多企业不计后果,最新最引人注目的例子就是发生在亚利桑那州坦佩(Tempe)的这起臭名昭著的致命车祸。优步的一辆车在坦佩相撞,导致一名49岁的行人死亡。
据报道,这些信息是由这家测试运营集团的前经理罗比米勒(Robbie Miller)发给包括该公司自动驾驶汽车部门负责人在内的7名优步高管的一封电子邮件获得的,邮件警告称,为出租车提供动力的软件存在缺陷,后备司机没有经过充分培训。
米勒写道:“汽车经常发生事故,造成损坏,这通常是操作者或AV技术表现不佳的结果。二月里几乎每隔一天就有一辆车损坏。我们不应该每15000英里就撞一次。”
因为驾驶技术不佳而一再违规的情况很少会终止驾驶。一些司机似乎没有经过适当的审查或培训。
那太疯狂了。当时,在旧金山、匹兹堡、圣达菲等地,有数百辆自动驾驶汽车行驶在道路上。
AV技术显然是有缺陷的,备份驱动程序没有保持警惕,尽管多次发生事故,但什么也没有得到解决。
米勒电子邮件发出五天后,伊莱恩·赫茨伯格(Elaine Herzberg)骑着自行车慢慢过马路时,一辆使用优步(Uber)自动驾驶软件的沃尔沃撞上了她,导致她死亡。事故发生时,司机显然在Hulu上播放The Voice。
这一悲剧并非某些尖端技术的反常故障——这完全是可以预见的企业渎职的副产品。
优步是这起案件中最糟糕的参与者,但它也不是唯一的一个,而且它建立在多年前形成的一种文化基础上,在这种文化中,技术领先的需求盖过了安全担忧。
安东尼·莱万多夫斯基(Anthony Levandowski)是谷歌自动驾驶汽车项目的前负责人,他的鲁莽、粗心是出了名的。公平地说,我们甚至不知道他监管的自动驾驶汽车发生了多少起事故。这里有一个关键的例子,正如Charles Duhigg在《纽约客》上报道的那样:
2011年的一天,谷歌的一位名叫艾萨克·泰勒(Isaac Taylor)的高管得知,在他休陪产假期间,莱万多夫斯基修改了这些车的软件,这样他就可以把它们带到其他禁止行驶的路线上。谷歌的一位高管回忆说,他曾亲眼目睹泰勒和莱万多夫斯基互相大喊大叫。莱万多夫斯基告诉泰勒,向他展示自己的方法为何必要的唯一方法就是一起乘车。这两名男子很愤怒,跳上一辆自动驾驶的普锐斯,开走了。
车开上了高速公路,经过了一个入口匝道。据知情人士透露,当天,普锐斯不小心与另一辆车凯美瑞相撞。
一个人类司机可以很容易地通过减速和让凯美瑞并入车道来处理这种情况,但是谷歌的软件并没有为这种情况做好准备。
汽车在高速公路上并排加速行驶。突然,凯美瑞的司机猛地把车转向道路的右边。然后,为了躲开护栏,又转向左边。
于是,凯美瑞轿车在高速公路上横冲直撞,撞到了中间。莱万多夫斯基当时是一名安全驾驶,为了避免与凯美瑞发生碰撞,他迅速急转弯,结果导致泰勒的脊椎严重受伤,最终不得不接受多次手术。
普锐斯重新获得了控制权,在高速公路上拐了个弯,把凯美瑞甩在了后面。莱万多夫斯基和泰勒不知道凯美瑞受损有多严重。
他们没有回去查看凯美瑞司机的情况,也没有去看看是否有人受伤。他们和谷歌的其他高管都没有向当局询问,也没有告知警方这起事故与自动驾驶算法有关。
莱万多夫斯基倾向于将AV测试置于安全之上,这一点已经被事实证明了,警察未被告知这一事实是关键所在。
谷歌在很长一段时间内对其自动驾驶汽车项目表现得很坦率,以至于《连线》杂志报道称,2016年,在莱万多夫斯基事件五年后,一辆谷歌汽车引发了“第一次撞车”。
这一点,再加上优步的爆料,应该让我们深入思考,我们应该要求在共享道路上进行自动驾驶汽车测试的公司提供多大程度的信任和透明度。
一位Waymo发言人说:“安东尼·莱万道基(Anthony Levandowki)对安全的漠视,并没有反映出Waymo的使命和价值观。在Waymo,我们团队中的数百名工程师每天都在工作,致力于把这项技术安全地带到道路上来。”“我们公司的成立是为了提高道路安全,所以我们对自己的安全要求很高。”
根据加州的自动驾驶汽车碰撞记录,Waymo今年发生了21起小事故,其中只有几起是Waymo的错。这是一个相当好的记录,假设所有事故都得到了准确的报告,Waymo对安全的强调似乎为该行业指明了方向。
就优步而言,已经将其自动驾驶汽车从道路上收回,并表示已对其自动驾驶汽车测试程序进行了大修。
虽然当我向优步发言人询问自事故发生以来它是如何改变其公司政策时,她向我发送了与我的同事詹宁斯·布朗发送的完全相同的信息回复:“现在整个团队都专注于安全,我们对团队为实现目标所做的工作充满信心。我们的团队仍然致力于实施关键的安全改进,我们打算只有在实施这些改进并且我们已经获得宾夕法尼亚运输部的授权后才能恢复在路上的自动驾驶测试。”
优步拒绝回答以下问题:公司文化是否发生了变化,公司里是否有人为其责任,或者除了上述声明和公开发布的材料以外,是否还有还有其他事情。优步并没有否认对这起事故负责。
在2018年12月的第一周,警方成功阻止了一辆特斯拉Model S,当时它正以每小时70英里的速度高速行驶,司机在驾驶时睡着了。司机启用了自动驾驶仪,行驶了17英里才被拦下。
在上文提到的10月份针对特斯拉的诉讼中,佛罗里达州男子肖恩说,他购买特斯拉的部分原因是特斯拉的自动驾驶功能,他认为这可以让他在漫长的通勤途中放松下来,所以他经常在路上写电子邮件、查看手机,包括撞车发生的时候。
特斯拉处于一个独特的位置。如前所述,长期以来,该公司一直在为其汽车配备其所称的“完全自动驾驶硬件”,同时也发布警告,要求消费者不要完全依赖自动驾驶仪。自动驾驶仪是一种半自动驾驶系统,售价额外5000美元。它正在不断升级软件,让已经上路的司机更接近自动驾驶的现实。
Stilgoe告诉我,“特斯拉正在对自动驾驶试验睁一只眼闭一只眼。”人们不负责任地使用自动驾驶仪,而特斯拉之所以忽视它,是因为他们在收集数据。特斯拉还误导人们,说他们在卖自动驾驶汽车。他们使用的短语是“全自动驾驶硬件”。
事实上,埃隆·马斯克(Elon Musk)本人本质上是在宣传特斯拉无人驾驶的潜力,在不到60分钟的露面时间里,他做了一点大胆的尝试。
特斯拉强调,在购买过程中,其销售团队展示了自动驾驶仪的正确使用方法,让买家不再认为它的功能与自动驾驶汽车类似。
它还增加了一些功能,用户可以不用手来关闭自动驾驶仪。尽管如此,市场营销是强大的力量,自动驾驶被滥用为自动驾驶系统的碰撞和事故仍在继续。
以这种方式公开推广其产品是一个有意识的决定,它可能有助于向特斯拉的司机灌输一种信念,即他们能够以营销语言描述的方式使用这一功能。
在第一次致命事故发生后发布的报告中,美国国家公路交通安全管理局(其解除了特斯拉的不法行为)仍然发现:
“在研究和开发Autopilot的过程中,特斯拉考虑了司机可能会以各种方式滥用该系统的可能性,包括上文提到的那些方式——即自动驾驶。”
通过模式混淆、分心驾驶、以及使用系统以外的首选环境和条件,特斯拉工程师考虑的驾驶员分心类型包括,驾驶员在使用自动驾驶仪时可能无法集中注意力、睡着或失去动作[原文如此]。
作为特斯拉设计过程的一部分,特斯拉评估了司机滥用的可能性,并对解决方案进行了测试、验证,并将其整合到产品的广泛发布中。特斯拉对司机滥用的评估以及由此导致的行动似乎解决了这种滥用可能带来的不合理的安全风险。
换句话说,特斯拉的团队知道,一些司机将使用Autopilot作为一种真正的自动驾驶模式,最终将完全依赖该系统。
尽管NHTSA发现,特斯拉的工程师已经对此做出了解释,但该系统在两起致命事故和更多事故中仍在使用。
与此同时,美国国家运输安全委员会(National Transportation Safety Board)发现,特斯拉在劝阻司机不要滥用自动驾驶仪方面做得不够,实际上应该承担部分责任。
与特斯拉发言人打了几个小时的电话,在此期间,该公司拒绝谈论推销其车辆与“所有车辆上的全自动驾驶硬件”相关的话题。
然后坚持要求购买特斯拉的司机不要将其视为自动驾驶汽车,该公司仅提供了它在10月份佛罗里达州诉讼后发布的声明。
该声明如下:“特斯拉一直清楚自动驾驶仪不能使汽车不受所有事故影响,特斯拉竭尽全力提供关于自动驾驶仪能做什么和不能做什么的明确指示。”
看,驾驶已经是一个混乱,危险的业务。
高功能的自动驾驶汽车在人类健康方面可能是一个天赐之物,但是在道德上是一个棘手的问题。
在特斯拉的案例中,我们无法知道某些自动驾驶仪用户是否会如此分心地驾驶车辆以至于造成意外事故。
但事实是,我们这些自己开车的人和行人对于我们如何与自动驾驶车辆共存几乎没有任何发言权。
到目前为止,正如莱万多夫斯基(Levandowski)曾经说过的那样,科技巨头在一场“他们需要赢的竞赛”中,已经为我们做出了决定。
推动立法更严格地监管自动驾驶汽车的测试,并且要求那些对伤害性和致命性违规行为负有适当责任的公司承担责任,似乎是一种合理的手段。
除非这些公司大幅改善努力,将安全和开放置于开发速度和销售技巧之上,否则它们既可能造成进一步的伤害,也可能疏远已经对自动驾驶汽车前景持谨慎态度的公众。
Stilgoe说:“我们仍然不知道大多数人会认为什么是可接受的风险,但我的猜测是,即使我们知道自动驾驶汽车比人类司机安全一点,公众也不会满意。”
任何崩盘都是一场灾难,自动驾驶汽车行业必须付出更大努力,才能赢得安全方面的争论。