欧盟出台AI道德准则草案

物网智库

    欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)发布了AI开发和使用的道德草案—可信赖AI的道德准则草案,内容长达37页,提出可信赖AI应具备两大要素,以及AI不可为的基本原则。
    可信赖AI的两大要素
    AI无疑是这个时代最具变革性的力量之一,必将改变社会结构,我们必须确保最大化 AI 的优势,同时降低风险,因此需要以人为本的人工智能方法,AI 的开发和使用不应被视为一种手段,应视为增加人类福祉的目标。“可信赖的AI”才能成为人类的北极星。
    欧盟AI道德准则草案指出,可信赖的AI有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”,二、兼具技术鲁棒性和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。另外,AI技术必须足够稳健及强大,以对抗攻击,以及如果AI出现问题,应该要有“应急计划”。
    另外,可信赖 AI 的不可为,包括不应以任何方式伤害人类;人们不应该被 AI 驱动的机器征服或强迫; AI应该公平使用,不得歧视或诬蔑;AI应透明地运作,也就是说,人类需要知道 AI 正在开发的目的,以及如何使用它;AI应该只为个人和整个社会的福祉而发展。
    草案也提出了框架,第一章阐述AI必须遵守的基本权利和价值观,以确保 AI 符合道德目的。第二章则是实现可信赖 AI 的指导方针,同时兼顾道德目的和技术稳健性,并列出可信赖 AI 的要求,包括技术和非技术方法。第三章则提供了具体但非穷举的可信赖 AI 评估表。
    AI的道德监管进入新高度
    近年来AI技术在多个应用领域展示了良好的进展及高效率,但同时也浮现不少问题,包括使用有歧视的数据就会训练出歧视人的AI模型,侵犯某些群体的权益,以及广泛的面部识别技术与民众隐私的矛盾,更让世人震惊的莫过于利用AI发展出智能武器,很可能在未经人类下达命令的情况下就发动攻击,这些AI不受控的问题,让许多科学家、企业、政府感到忧心,过去对于应该制定AI规范的意见,多来自科研及行业界的呼吁。
    而欧盟在 2018 年 5 月正式让通用数据保护条例(GDPR)上路,提高个人数据使用的公平性和透明度,防止企业滥用或忽略用户数据的保护,此次欧盟又正式提出了AI道德准则,象征AI的公平性、透明、道德性的规范正式进入一个更高的治理层次。