史上最严监管法案,锁住了欧洲大国的AI野心

Ai芯天下

前言:
    近日,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成一致,这一法案被认为是全球首个全面监管人工智能(AI)的法规。
    在当前人工智能技术迅速发展的背景下,国际社会对人工智能带来的风险和挑战日益关注,这一法案的出台引起了全球广泛关注。
    作者 | 方文三
    图片来源 |  网 络 
    全球首份针对AI监管的全面法规
    12月8日,在经过一周的马拉松式谈判和激烈争论后,欧盟委员会、欧洲议会和欧盟成员国代表就《人工智能法案》达成初步协议,新法案涉及包括ChatGPT在内的通用目的AI系统。
    这是全球首份针对AI监管的全面法规,意在从保护人类基本权利和不阻碍人工智能行业发展之间寻求平衡。
    法案将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应规定。
    不可接受风险等级的AI应用将被直接禁止,包括在特定情况下使用生物特征分类系统和人脸识别系统。
    法案还专门针对通用AI系统设置规定,存在系统性威胁的通用AI将接受更严格监管。
    近日,欧盟经过了马拉松式的谈判后,终于敲定了一项历史性的AI监管协议,这也将成为全球首个广泛覆盖包括生成式AI在内的监管法案,并且是全球对AI监管最为严格的法案。
    在新规则中,立法者同意严格限制面部识别技术的使用,并禁止利用人工智能进行[社会评分]以及[操纵人类行为]的人工智能系统。
    新规还禁止利用人工智能剥削那些因年龄、残疾或经济状况而处于弱势的人。不遵守规则的公司将面临3500万欧元或等同于全球收入7%的罚款(二选一)。
    将人工智能风险从高到低分为四类
    ①不可接受的风险:被认为会威胁人们的生命、安全和权利的AI系统,包括公共部门使用的社会评分系统、鼓励或辅助自杀等危险行为的系统等等。
    ②高风险:可能会影响关键基础设施(如交通)、教育和社会福利等公民权益的AI系统,包括在手术中应用的AI辅助系统、信用评分系统中的AI系统等等。
    ③有限的风险:指特定的具有对用户透明度义务的AI系统,例如聊天机器人。
    ④最小风险:指已经被广泛运用的AI系统,包括垃圾邮件过滤器、电子游戏中的AI系统等等。
    在鼓励技术创新和保护人权之间找到平衡点
    该法案的核心目的是为了在鼓励技术创新和保护人权之间找到平衡点。
    一方面,鼓励人工智能技术的进步和创新;另一方面又必须确保技术创新不会侵犯公众的基本权利。
    该法案规定了严格的前置审查程序和履行合规义务,重点对具有高风险的人工智能产品和服务实施治理,要求人工智能公司对其算法保持人为控制,向监管机构提供技术文件,并为[高风险]应用建立风险管理系统。
    在企业看来,严格的制约可能会打击欧洲公司的创新能力。
    今年6月,包括法国空客公司和德国西门子公司在内的数十家最大的欧洲公司表示,如果政府制定的规则过于严格,则无法培育创新和帮助当地产业。
    对此,欧盟出台的规则将为人工智能技术的使用提供保障措施,同时避免给企业带来[过度负担]。
    目前的《人工智能法案》可能会抑制人工智能技术为欧洲[重新加入技术先锋]的机会。
    批准的规则过于极端,有可能破坏欧盟的技术雄心,而不是为人工智能创新提供合适的环境。
    其监管理念是设置一系列可变动的监管标准,旨在对风险最高的人工智能系统施加最严格的限制,而针对其他风险程度较小的AI工具,则必须披露内容是由人工智能合成。
    根据的解释,此次法案的中心方法论是根据人工智能对社会造成危害的能力,遵循[基于风险]的方法来监管人工智能:风险越高,规则越严。
    一些人担心,过多的监管会损害欧洲人工智能相关企业的发展,让欧洲的人工智能发展落后于其他地区。
    欧洲目前在人工智能关键技术方面面临落后的危险。随着对人工智能基础模型及应用的全面监管,《人工智能法案》危及制造商和用户双方的竞争力和创新能力。
    人工智能公司仍有很大的回旋空间
    在2021年,《人工智能法案》的初步草案首次公布时,公众的关注焦点主要集中在元宇宙上现在看来,这种关注已经有所转移。
    在ChatGPT等先进技术出现之后,立法者们意识到他们需要在监管中考虑基础模型,即那些可用于多种应用场景的强大人工智能模型。
    这引发了关于哪些模型应受到监管,以及监管是否会抑制创新的热烈讨论。
    《人工智能法案》将要求基础模型以及基于此构建的人工智能系统提供更详细的文档,遵守欧盟版权法,并分享更多关于模型训练数据的信息。
    对于最强大的模型,还有额外的要求。例如,科技公司必须公开其人工智能模型的安全性和能效。
    然而,立法者正在寻找一个折衷方案,只对最强大的AI模型应用更严格的规则,这些规则按照其训练所需的计算能力进行分类。公司将自主评估自己是否受到更严格规定的约束。
    然而,这位官员也表示,随着技术的进步,欧盟可能会改变评估人工智能模型能力的方式。
    结尾:
    可能需要数周甚至数月的时间来观察法案的最终版本。在技术上,该法案的具体内容仍需经过进一步的修订。
    此外,在正式成为法律之前,还需经过审批程序。一旦该法案正式生效,科技公司将有两年的时间来遵守这些规定。
    对于特定的人工智能应用,禁令将在六个月后生效。对于开发基础模型的公司,他们必须在一年内确保其模型的合法性。
    部分资料参考:界面新闻:《欧盟就全球首个AI监管法达成初步协议,有哪些干货?》,DeepTech深科技:《为何欧盟人工智能法案如此[难产]?》