欧盟发布“可信赖AI”道德准则草案,提出两大要素、数个不可为


    日前,欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)发布了一份内容长达37页的AI开发和使用道德草案—可信赖AI的道德准则草案(Draft Ethics Guidelines for Trustworthy AI)。其中提出,可信赖AI应该具备两大要素,以及AI不可为的基本原则。
    据了解,人工智能高级专家小组由欧盟委员会于去年4月任命,组内共有52位代表学术界、工业界和民间社会的独立专家。彼时,这一小组的建立也有消息露出,按照当时的说法,他们的任务主要有三个,包括:
    一、就委员会如何在“欧洲人工智能联盟”中建立广泛而多样化的利益相关者社区向欧盟委员会提供建议;
    二、支持即将实施的欧洲人工智能倡议(2018年4月);
    三、在年底前出台基于欧盟基本权利的伦理发展和人工智能使用准则草案,充分考虑公平性、安全性、透明度、未来工作、民主以及更广泛地影响“基本权利宪章”的适用等问题。该指导方针将在欧洲委员会独立咨询机构欧洲科学和新技术伦理组织(EGE)的发言中进行广泛的磋商和建设之后起草。
    如今,这一小组已经完成了任务。
    具体来看,根据道德草案准则,可信赖AI有两个组成要素:
    一、应该尊重基本权利,使用法规、核心原则和价值观,以确保符合“道德目的”;
    二、兼具技术鲁棒性和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。
    不过,不怕一万,就怕万一。为了应对AI出现问题,还应该准备一个“应急计划”,比如系统出现问题后,将控制权交由人类手中一般。
    另外,该草案还提出了几点AI的不可为——AI不应该以任何方式伤害人类;AI不应该限制人的自由;AI应被公平使用,不得歧视或污蔑;AI应透明的运作,即人类需要知道AI正在开发的目的,以及如何使用它;AI应该只为个人和整个社会的福祉而发展。
    在整体框架上,草案可分为三部分,第一部分阐述了AI必须遵守的基本权利和价值观,以确保其能够符合“道德目的”;第二部分提出了实现可信赖AI的指导方针,同时兼顾道德目的和技术稳健性,并列出了可信赖AI的要求,包括技术和非技术方法;第三部分则提供了一个可信赖AI的评估表,涵盖问责机制、数据治理、非歧视、尊重隐私等等。
    据悉,该草案目前还处于意见征集阶段,时间截止于本月18日。而在今年3月,该草案将被正式提交到欧盟委员会。
    一直以来,随着AI越来越多的带来便利性,其背后的道德隐患问题也一直备受关注,关于“AI威胁论”的争论也一直没有停歇。作为一个国际性联盟,欧盟近年来一直都在关注人工智能,除了推动此次草案的完成,其还于去年发布了AI行动计划等等。同时,在企业方面,作为AI的研究者和商业化推动者,包括微软、谷歌等在内,均针对AI推出了自己的AI准则。