管控措施相继发布,AI是否已经触及“边界”


    科技是把双刃剑,当人工智能技术大规模应用于社会时,我们必须考虑它所带来的负面效果。
    身处文明社会当中,大众除了道德限制还有法律对自身行为进行约束,但开发者进行应用开发时,是否考虑到“喂”给机器的数据是否符合“法规”,特别是近年来人机交互的数量急剧增加,从而使得AI监管问题的讨论变得更为热烈。
    感官的欺骗
    视觉与听觉是我们对外界感知的重要窗口,大众的观念中普遍认为“人的第一印象很重要”“眼见为实,耳听为虚”。
    但面对信息错综复杂的世界,如今眼见也不一定为实,听到的则可能更为虚假。曾经被议论的Deepfake换脸技术就属于罪魁祸首之一,其利用了AI深度学习功能,通过数以亿计的自我学习、神经网络训练,AI能够识别出画面中那些和周围场景格格不入的部分,同时将其移走和生成缺失的像素,最后重绘出部分像素进行画面填补。
    谷歌公司也曾推出WaveNet软件,可以利用其神经网络系统对原始音频波形进行建模,生成带有不同语气音节和情感表达的人类自然语言的音频。
    外媒曾报道过一例案件,不法分子就利用了类似的AI技术,成功模仿了英国某能源公司CEO的声音,诈骗了220,000欧元,执法当局认为此种类案件的调查取证更为困难。
    AI道德准则
    2019年,我国首次将AI造假音视频列入法规,国家网信办出台《网络音视频信息服务管理规定》。
    对于利用基于深度学习、虚拟现实等新技术新应用制作、发布、传播非真实音视频信息的网络音视频:,应当以显著方式予以标识,不得利用其制作、发布、传播虚假新闻信息;网络音视频信息服务提供者应当部署应用违法违规音视频以及非真实音视频鉴别技术,应当建立健全辟谣机制。
    日前,欧盟也相继出台《人工智能白皮书》,对人工智能领域的投资监管路径设立双重目标,旨在推动道德和可信赖人工智能的发展。并通过建设“卓越生态系统”和“信任生态系统”双重系统,构建一个卓越的、可信赖的人工智能体系框架。
    近日,面对人工智能的伦理 “红线”,博世在“博世互联世界大会”上发布人工智能技术的指导方针《AI道德准则》,博世认为人工智能是服务于人类的工具,任何可能对人造成影响的人工智能决策都需要人类的监管。
    准则中包含了三种机制,它们遵守着一个共同的原则,即博世开发的人工智能产品中,人类必须保留对人工智能所做决策的最终控制权。
    第一种机制为人工控制(human-in-command),它适用于人工智能只作为支持工具出现的情况。例如,在决策支持系统中,人工智能帮助人们对物体或生物进行分类。
    第二种机制为使用阶段的人为干预(human-in-the-loop),适用于人工智能系统可以自主决策,但人类可以随时干预的情况。例如,驾驶辅助系统,驶员可以直接介入停车辅助系统的决策等。
    第三种机制为设计阶段的人为干预(human-on-the-loop),适用于紧急制动系统等应用。开发此类智能产品时,专家将定义参数作为人工智能决策的基础,而人类不参与决策,由人工智能进行。
    但是工程师可以随时追溯检查机器是否遵守所设定的参数进行决策,必要情况下可以修改参数。
    面临的困难
    人工智能在应用层面有逐渐完善的法律法规进行约束,但在实际的技术开发中仍面临着许多难以确定的细则。
    数据标定没有统一标准:在机器学习中训练数据前都会对数据进行清洗和标定。有时为了满足业务进度的要求,不会进行全量全分类的处理。
    准确的说,无法对数据进行严格而准确的分类。这也是有监督学习类算法的缺点,就是针对特殊业务往往要进行专门的数据标定,同时算法设计者自身存在价值偏见也会导致人工智能系统无法正常运行。
    数据分析难全面:在准备训练数据时应容扩各类发生的情况,AI在数据错误的情况势必会造成BUG,除了掌握各类情况,仍要调整好处理各种情况的参数或系数,包括算法模型存在的技术性缺陷可能导致人工智能系统无法正常运行。
    模型成长环境差异:AI算法模型的训练环境对算法结果有重大影响,假设机器训练环境变得没有边界,各类数据都被机器学习,这将很难保证机器会往着人类预想的方向发展,以及因为算法日趋“黑箱化”可能导致技术失控等问题。
    无论在技术或应用方向,都应该通过政策和法律引导,开展人工智能算法安全的评估检测;推动技术伦理的算法导入,要求人工智能开发者设计高可解释性的智能系统;同时,加强智能算法的透明监督,人工智能企业、行业应建立相应的算法监管体制,保持与政府监管的协同。