AI值得信任吗?“可信AI”或能给出答案

科技云报道

    AI技术所带来的便利和AI技术不可信之间的矛盾,正逐渐成为AI在现实生活中大规模落地应用的核心问题。
    
    美国前国务卿亨利·基辛格曾在文章中称,AI的危险极其巨大,“人类历史可能重蹈印加人的覆辙,面对AI,就像印加人面对无法理解的西班牙文化一样,甚至会对其产生崇拜和敬畏之心”。 特斯拉CEO埃隆·马斯克曾提出警告,推进AI 向前发展的行为无异于“召唤恶魔”,为人类带来“比核武器更恐怖”的危险。 已故物理学家史蒂芬·霍金也曾说过,AI的发明可能是“人类文明史上最可怕的事件”。 为什么这些研究者/领导者都在担忧AI技术的未来?问题的核心正在于“信任”。
    
    AI技术的发展关乎信任
    近30年来,人们在AI工程上取得了不少瞩目的成绩。 1997年,“深蓝”成为战胜国际象棋世界冠军卡斯帕罗夫的第一个计算机系统。 2006年,Hiton提出了深度置信网络,成为了深度学习的前驱。
     2012年,Google大脑使用超过16000个CPU,用以模拟10亿个神经元,在语言和图像识别上都取得了突破。 2016年,拥有1920个CPU集群和280个GPU的深度学习系统AlphaGo击败李世石,成为第一个不让子击败职业围棋棋手的程序。 工程上的突破,让人们得以将以前只能停留在理论上的模型实际运行起来并进行测试,大大加快了AI的发展并使之商业化。
     如今,AI技术与产业的加速融合,从工业生产到消费服务的各个方面改变着人们的生活,对生产和生活效率的提升极为迅速。 在政务服务领域,采用人脸识别、声纹识别等AI识别技术进行身份验证,采用对话式AI提供智能化政务服务,采用“文本分析+知识图谱+搜索”技术辅助刑侦、技侦工作等。 
    在金融行业,利用人脸识别、语音识别和智能客服等AI技术,提升金融领域的交互水平和服务质量。 在制造业领域,利用AI算法开发数字化自动研发系统,大幅度降低周期长、成本高等研发不确定性。同时,利用AI技术提升柔性生产能力,实现大规模个性化定制,提升制造业企业对市场需求变化的响应能力。
     在消费零售领域,AI技术在商务决策场景、精准营销场景、客户沟通场景等各个零售环节多点开花,围绕人、货、场、链搭建应用场景。 正是基于AI技术的迅猛发展,更多的权力还在不停地被交到不可靠的机器手中。
     但令人担忧的是,这些机器并不具备对人类价值观的理解,根本无法解决利害关系较大的问题,只能按照编程逻辑工作。 试想一下,如果AI系统推送了一条错误的广告,影响并不大;但如果AI系统自动驾驶着汽车,全速撞向其数据库中并不存在的外观奇特的车辆,后果不堪设想。 
    事实上,AI犯错并不是一种假设,而是屡次出现在现实生活中。 曾有部分消费者反应,亚马逊Alexa智能音箱居然半夜经常会莫名其妙地发出巫婆般的恐怖笑声,令用户感到害怕。 Facebook人工智能研究实验室在训练两个AI聊天机器人互相对话时,AI竟逐渐发出人类无法理解的独特语言。 微软聊天机器人Tay上线不到24小时,竟然出现了攻击性和种族歧视言论,微软不得不马上让其短暂休眠。 源于这些真实发生的问题,大众对AI的信任度大大降低。
    
    
    AI鸿沟未被重视的AI鲁棒性 
    理想与现实之间,存在着一个被称为“AI鸿沟”的大坑。追根溯源,主要在于AI的鲁棒性(Robust)没有得到足够重视。 在当下的AI 研究中,AI的容错率往往较高,比如广告和商品推荐。但在无人驾驶汽车、老人照护、医疗规划等领域中,AI的鲁棒性都至关重要,关系到人们的生命安全。 正因为缺乏对AI鲁棒性的重视,每当AI解决方案能在某些时候发挥作用,人们就会假定,只要再多一点数据,此系统就能在所有的时刻发挥作用。 但事实上,就算是目前AI最擅长的领域,也潜藏危机。 以图像识别为例,很多时候AI不仅无法识别,还会犯低级错误。比如给AI系统看一张贴着许多贴纸的停车标志,AI系统可能会错误地识别为“装了许多食品和饮料的冰箱”。在自动驾驶领域,AI也不能百分百识别道路情况,如特斯拉屡次撞向路边的消防车。 这是因为当前的AI发展以深度学习为主,而深度学习算法最常标榜的便是“准确率高达99.99%”。
    由于深度学习模型的“黑匣子”特征,即使2018年凭借深度学习与神经网络的成就获得图灵奖的学者也无法自信地说,某一算法可以达到100%的准确性。
    当准确率只能达到99%的深度学习算法在现实生活中落地时,便会带来许多不容小觑的问题。 具体而言,深度学习面临三个核心问题,每一个问题既会影响到深度学习自身,也会影响到严重依赖于深度学习的其他流行技术: 
    第一,深度学习是贪婪的。
    为了将神经网络中的所有连接都调校准确,深度学习常常需要大量的数据。AlphaGo要下3000万盘棋,才能达到超人类的水平。
    如果数据量减少,深度学习的表现水平也会急转直下。 深度学习之所以搞不定语言和翻译,就是因为带有新意义的新句子层出不穷。你所面对的现实世界问题与训练系统所使用的数据相差越大,系统的可靠性就越低。
    第二,深度学习是不透明的。
    神经网络由大量数值矩阵组合而成,其中任何一个矩阵都是普通人类从直觉上无法理解的。
    就算利用复杂的工具,专业人士也很难搞明白神经网络决策背后的原因。
    神经网络究竟为何能做到这许多事情,至今仍然是一个未解之谜。人们也不知道神经网络在达不到既定目标时,问题究竟出在哪里。 事实上,神经网络如同“黑箱”一般,不管做什么,你只能看到结果,很难搞懂里面究竟发生了怎样的过程。
    当我们对神经网络驱动的无人驾驶汽车或家政机器人寄予厚望时,这就是个非常严重的问题。 深度学习的不透明,还有另一个问题,就是深度学习与周遭世界的常识并不相符。若想让深度网络搞明白“苹果长在树上”,或是“苹果从树上掉下来的时候,会从上往下掉,而不是从下往上飞”,并不是件容易的事。
      第三,深度学习是脆弱的。
    愚弄深度网络的方法可达数十种之多,这是长期存在的问题。麻省理工学院的研究团队就设计出了一只三维海龟,被深度学习系统错认成来复枪,即使将海龟放到水下环境也没能改变错误结果。
    该团队又在棒球上涂了点肥皂泡,放在棕色的棒球手套中,不论什么角度都会被识别错成一杯浓缩咖啡。 归根结底,还是深度学习不够深刻。有所成就,并不意味着深度学习的行为背后存在一个真正的智能。
    因此,深度学习不是万能药,依然与我们在开放系统中需要的通用AI相去甚远。
    
    
    可信AI凝聚国际共识 
    为了避免AI可能给人们带来的负面影响,以便人们能够充分信任AI技术,与AI技术和谐相处,可信AI最近受到越来越多的关注,发展可信AI已成为全球共识。 2019年4月,欧盟委员会发布了《人工智能伦理指南》,提出了实现可信人工智能的七个要素,包括:保障人工智能技术的人的自主性、稳健性和安全性,确保隐私和数据管理,确保算法系统的透明度,以及要求人工智能提供多样化、非歧视性和公平的服务。
     2019年6月,G20提出“G20人工智能原则”,明确提出“促进公共和私人对人工智能研发的投资力度,以促进可信赖的人工智能的创新”。 在国内,2017年11月,中国科学家何积丰院士首次提出了可信人工智能的概念,即人工智能技术本身具备可信的品质,从学术研究角度,可信AI研究范畴包含了安全性、可解释性、公平性、隐私保护等多方面的内容。 随着“可信”成为共识,产业界也紧跟学术界步伐,纷纷投入“可信AI”的研究。
     IBM于2018年开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。 例如:公平性(Fairness),AI系统应该采用不带偏见的数据集和模型,从而避免对于特定群体的不公平;可解释性(Explainability),AI系统所提供的决策或建议不是一个不可解释的黑箱,应该能够被用户和开发者所分析、理解;健壮性(Robustness),AI系统应该安全和可靠,不会被篡改,也不会受被“污染”的训练数据集影响;透明性(Transparency),AI系统可以被透明化管理,其开发、部署、维护等可被追踪,能够在生命周期范围内被审核等。 
    目前,IBM这些工具已捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。 除此之外,微软、谷歌、蚂蚁、京东、腾讯、旷世等科技企业,也在积极开展可信AI的研究和探索。 早在2015年2月,蚂蚁集团就已启动基于「端特征」的手机丢失风险研究项目,迈出了端云协同风控研究的第一步,旨在保护用户的隐私安全。
    2017年6月,蚂蚁又发布具备智能攻防能力的第一代智能风控引擎AlphaRisk,在用户集中的支付宝端进行风险防控。 据了解,蚂蚁集团自2015年起投入可信AI技术的研究。2016年,全面启动了人工智能风控防御战略。
    目前,可信AI技术已在包括反欺诈、反洗钱、反盗用、企业联合风控、数据隐私保护在内的多个风控场景下落地,支撑着其全风险域的防御需求。 至2021年首次对外披露技术架构,蚂蚁集团已经完成了长达6年的可信AI技术积累之路。
    据2021年6月权威专利机构IPR daily发布的《人工智能安全可信关键技术专利报告》显示,蚂蚁集团旗下的支付宝在该领域的专利申请数和授权数,均位列全球第一。 
    2021年,中国信通院联合京东探索研究院发布了《可信人工智能白皮书》,可信AI已不再局限于对人工智能技术、产品和服务本身状态的界定,而是逐步扩展至一套体系化的方法论,涉及到如何构造“可信”人工智能的方方面面。 在企业管理上,商汤科技在2020年1月成立了人工智能伦理治理委员会,并于2021年上半年上线了伦理审核系统,建立贯穿人工智能系统生命周期的风险管理系统,对将要落地的人工智能系统进行全过程的追溯和审查,为国内科技企业做出了表率。
    
    
    结语
    AI技术已成为互联网行业发展不可缺少的原动力之一。
    针对AI伴随的风险和挑战,发展可信AI,推动人工智能的透明可视、安全可控、多元包容已成为全球共识,也是未来人工智能健康发展的必由之路。