欧洲正积极探索人工智能伦理问题
本周,由欧盟委员会任命的、拥有52名技术人员的专家组正式发布了一份普适性的《人工智能伦理指南(Ethics Guidelines for Artificial Intelligence)》,旨在促进开发“值得信赖的AI”成果(顺带一提,原文作者亦是这52位专家之一)。这是一份极具雄心的文件,也是人类在AI伦理探索方面首次率先在大规模试点活动当中进行实际测试,而不再简单罗列理论性的道德原则。此次试点得到了欧盟委员会的全力支持。该委员会不仅批准了此项指南,同时亦呼吁各私营部门积极应用这份指南,并希望将其作为新的全球性标准。
在探索AI道德规范的道路上,欧洲并不是在孤单前行。过去几年当中,加拿大与日本等国已经发布过包含道德伦理原则的AI战略,经合组织也正立足这一领域广泛收集建议。诸如AI合作伙伴关系等私人倡议更是制定出不少道德准则——这一伙伴关系目前已经吸纳到超过80家企业以及民间社会组织。另外,AI开发者们也热情支持电气与电子工程师协会(简称IEEE)在伦理框架层面的努力以及阿西洛马人工智能原则。目前,大多数高科技巨头都已经制定出自己的原则,民间社会也在快速消化各类指导性文件,包括以人权为重点的多伦多宣言。由牛津大学Luciano Floridi教授领导的一项研究发现,尽管所使用的术语各不相同,但大部分现有声明之间都存在着一大共通性特征:它们并非强制执行,即没有硬性约束力。
事实上,欧洲发布的这份指出也无法直接实施,但却在诸多方面较以往的尝试更进了一步。欧盟方面主要关注四大伦理原则,即尊重人的自主权、防止伤害、公平性以及可解释性。但除此之外,指南提到可信赖的AI还意味着应遵守欧盟的法律与基本权利(包括隐私权),以及高水平的社会技术稳健性。任何希望设计、训练以及营销可信赖AI系统的组织或个人,都必须认真考虑相关系统可能引发的风险,并对为减轻这些风险而采取的具体措施负责。此外,这份指南还提供了一套详尽的框架,用于对此类措施做出评估。
对于渴望出台一项强有力的约束性法令的从来者而言,这一次的指南恐怕仍然无法让他们满意。这里没有提到弗兰肯斯坦悖论、没有技术发展奇点、没有振聋发聩的条款——例如“AI应该始终具备可解释性”、“AI永远不应干扰人类”、“整个循环当中应始终有人类参与”或者“AI永远不可抱有歧视之心”等。这些陈述虽然具有直观意义上的吸引力,但却与当前AI部署现实相去甚远,而且显然并不适合被实际转化为政策性框架。
换言之,用户并不需要详细解释或理解AI技术支持之下的冰箱到底在如何工作,也不需要明白无人驾驶汽车到底如何做出正常决策。他们需要相信的,只是AI解决方案可以被引入市场流程,并会在出现问题时由人类专家介入干预。但在另一方面,用户应该有权了解他们为什么无法访问政府档案,或者为什么AI方案会将一部分人判定为补贴领取者或者肾脏移植受让者。同样的,在某些情况下,硬性将人类引入循环可能毫无意义(例如强制要求用户坐在无人驾驶汽车的方向盘前面);当然,在大多数场景下,确保人类“在循环中”或者“由人类保留指挥权”也是非常必要的。此外,虽然歧视往往无法彻底消除——毕竟我们的人类社会本身就客观存在着偏见问题,但最重要的是应禁止过度、不合理以及有违法律的歧视,并对受到影响的个人快速给予补偿。更重要的是,这份指南中还包括几个“需要高度关注的领域”实例,这些领域往往很难满足值得信赖AI这一原则的相关要求,具体包括识别与追踪使用AI方案的个人、部署隐蔽的AI系统、以有违人权的方式开发基于AI技术的公民评分系统,以及利用AI技术开发致命性自主武器(简称LAW)。
值得信赖AI这一概念目前仍只是高级专家组表述中的所谓“理想目标”。欧盟机构将在未来几个月之内最终决定是否将其作为具有约束力的政策性框架,并判断其具体适用于哪些用例。这可能需要将其转化为强制法(例如通过修改出台侵权规定,针对特定行业立法以实现某些情况下的可信赖AI约束力,以及临时性竞争规则等等),同时配合其它非强制性工具。关于其它措施,欧盟可以要求全部公共部门采购只能选择可信赖的AI产品;或者要求医疗保健领域中的AI应用必须值得信赖等。此外,可能还需要出台某种形式的认证机制以确保新系统得到正确实施,并以正确方式向用户呈现信息。
另一个问题是,该制度是否有助于欧洲制定出全球性AI标准,从而重新提振自身竞争力。IBM公司已经宣布将在全球范围内应用这套框架,但考虑到:
1)业界普遍认为美国对于最终用户的隐私权保护不力;
2)美国平台常被指责过度干扰用户的自主权与决策权,因此全面应用可信赖AI标准可能会在不久的将来把那些不合规(或者说非欧洲)企业挡在欧洲大门之外。
另外,起草这份“准则”的专家组并没有讨论任何关于工业与贸易的政策性方案。不过欧盟委员会在最近的一份官方文件中提出了“欧洲制造”的伦理、安全与前沿AI发展观,这也暗示也许未来相关法律将得到全面实施。