三部门发布“深度合成”技术新规,对元宇宙、人脸合成等公司影响大
12月11日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
深度合成技术涵盖了内容合成、人脸合成、语音合成以及虚拟人全身合成等技术类型,如今大热的AI作画、AI创作、AI换脸以及虚拟人制作等,都属于深度合成技术支持下的应用。
12月12日发布的《<互联网信息服务深度合成管理规定>答记者问》提到,《规定》出台主要基于多个方面考虑,一是深入贯彻落实党中央决策部署,进一步加强对新技术新应用新业态的管理;二是维护网络空间良好生态,避免影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。三是促进深度合成服务规范发展,明确各类主体的信息安全义务。
对于深度合成技术的监管,此前在《互联网信息服务算法推荐管理规定》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法规中均有提及,而《规定》则对深度合成内容更有针对性地进行规制,标志着监管部门针对互联网信息内容监管版图的进一步细化。
明确了哪些规定?
《规定》对深度合成服务提供者主体责任进行了明确规定。《规定》强调,任何人或组织不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,或从事法律、行政法规禁止的活动。
《规定》同时要求,深度合成服务者需要采取技术或者人工方式对输入数据和合成结果进行审核,管理深度合成内容,并建立辟谣机制,并且建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度。
就目前来看,新规明显抬高了合规要求和合规成本,因此,对于提供深度合成服务的创业公司来说影响可能较大。
此次《规定》对深度合成服务提供者和技术支持者提出了明确的数据和技术管理规范。其中包括,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。
有业内人士称,《规定》虽然目前只做了相对宽泛的限制,但是至少未来有不法分子利用AI从事不法行为时能够有依据可以引用。
在具体的项目中,该人士提及,为满足合规要求,项目可能需要进一步调试各类图像/文字生成模型,保证模型不会输出暴恐色情内容、不会被人利用制作虚假图像(换脸)等。
另外, 对于新规所强调的“具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。”
进一步加强“隐私保护”
清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正分析,上述条例实际上是遵循了《个人信息保护法》,明确了在深度合成技术场景中的隐私保护。比如在AI换脸应用中,《规定》出台之后,未经他人同意情况下,使用他人照片进行AI换脸内容制作将是违规行为。
梁正还提及,在上述条例支持下,人工智能模型的训练不能随意使用未经同意的人脸、声音等带有生物特征的数据。
在以往,许多人工智能模型的训练通常会经历“全网爬取数据”的阶段,许多个人公布在公共社交媒体的照片、视频可能会在不被告知的情况下被机器学习,成为某个模型的养料。《规定》中对于人脸、声音等生物特征信息的使用提出明确的前提条件,一定程度上可以解决这个问题。
此次发布的《规定》明确提出,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依法依规保存日志信息。
提供智能对话、合成人声、人脸生成、沉浸式拟真场景等具有生成或者显著改变信息内容功能服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示信息内容的合成情况,避免公众混淆或者误认;提供非上述深度合成服务的,应当提供显著标识功能,并提示使用者可以进行显著标识。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
梁正认为,标识可以让受众明白内容是否属于深度合成,一定程度上可以减少深度合成内容产生的社会偏差。对于技术支持公司来说,对输出内容增加标识难度不大。不过,对于平台型公司而言,如何识别出不同上传者的深度合成内容标识将成为一个难点。