银行推进人工智能技术应用时需同步考量可信AI的评估与验证

易观分析

    易观数字化:今年以来,政府层面、金融监管层面在科技伦理治理的指导要求上持续加码,《中共中央办公厅 国务院办公厅印发关于加强科技伦理治理的意见》中,点明人工智能作为重点领域应完善科技伦理治理的规范和标准;《中国银保监会办公厅关于银行业保险业数字化转型的指导意见》中指出,要防范模型和算法风险,定期评估模型预测能力及在不同场景下的局限性,确保模型的可解释性和可审计性,防止算法歧视。人工智能治理的形势日益迫切,在这当中,人工智能是否可信被视为一种重要的品质,需要引起金融机构的足够重视。本文将从可信AI对于银行的重要性、关键特征、评估与验证方式、合作厂商选择等维度进行专题分析。
    可信AI在银行数字化转型背景下的重要性日益凸显
    银行业在数字化转型建设过程中,人工智能技术是构建数智化能力的关键领域,在技术创新与应用的同时,银行也面临着来自人工智能的风险挑战。
    易观分析认为,人工智能的伦理风险、模型与算法风险、数据风险、隐私风险是当前银行需要应对的几类主要AI风险,人工智能黑盒性、不确定性、脆弱易攻击性造成的隐忧和不信任感,使银行在应用层面难以对其委以重任,在研发层面也难以进行有突破性的探索。因此AI是否可信、可控在当前以数字化能力为依托的转型背景下变得尤为关键,实现可信AI是银行科技能力建设布局的重要内容,是银行实现业务稳健发展的前提和有力保障。
    可信AI的特征应结合银行实际应用需求加以延展
    可信AI的概念在国内是由何积丰院士于2017年香山科学会议上首次提出,是指人工智能技术本身具备可信的品质。目前学术界针对人工智能治理已经发表了多篇研究论述,对其治理原则的普遍认识聚焦在透明、安全、公平、可问责、隐私保护几项特性中。结合银行业AI应用发展现状,易观分析认为,可信AI应当具备八大关键特征,即稳定性、鲁棒性、可解释性、安全性、公平性、普惠性、客户自治性以及可追溯性。
    相应地,银行对于AI是否具备可信品质的考量应围绕自主可控战略要求,结合银行实际应用需求,如识别欺诈、隐私泄露、系统攻击、信贷风险、洗钱风险等风险场景,对可信AI的关键特征加以延展。例如,AI在进行智能决策分析、智能推荐、智能风控等活动时应做到透明可释、记录可溯,具备可解释性、客户自治性、可追溯性;在进行智能识别、智能问答等活动时应做到抗扰动、抗欺骗,且符合伦理道德与行业规范,具备鲁棒性、公平性、普惠性。同时,人工智能应具备抗风险、抗攻击和隐私保护的稳定性、安全性特征。
    可信AI的评估与验证应基于场景视角小规模进行再规模化启动
    可信AI本身作为技术能力的一种表现,是反映在算法和模型层面,而不是直接体现在业务流程或是客户体验中的。
    易观分析认为,银行在推进人工智能相关项目时,应有的放矢地进行可信AI的评测。在银行业对可信AI尚无统一评测标准的情况下,银行应基于场景视角,选择有需求、有痛点、频次高、风险敏感等场景,以自主技术能力开展可信AI相关的评估与验证,并将其作为银行IT治理架构下的关键任务进行统筹考虑。评估与验证应以小规模验证为主,通过风险点和样本设置,重点验证可信AI一个或多个特征在单一场景下的表现,经小规模验证后再规模化启动。
    对厂商的选择应关注其人工智能的整体能力表现
    从目前人工智能领域的市场来看,可信AI相关的参与者和产品提供者以大型互联网公司、独立创业公司、渗透行业的供应商、产业背景公司为主,这些厂商具备了不同程度的可信AI研发能力,但并不存在单一提供可信AI产品的厂商。
    易观分析认为,银行应从整体能力出发对厂商进行选型评价,并且将可信能力需要作为AI产品及解决方案的重要评价标准之一,结合自身场景需求选择合适的合作伙伴。
    声明须知:易观数字化在本文中引用的第三方数据和其他信息均来源于公开渠道,易观数字化不对此承担任何责任。任何情况下,本文仅作为参考,不作为任何依据。本文著作权归发布者所有,未经易观数字化授权,严禁转载、引用或以任何方式使用易观数字化发布的任何内容。经授权后的任何媒体、网站或者个人使用时应原文引用并注明来源,且分析观点以易观数字化官方发布的内容为准,不得进行任何形式的删减、增添、拼接、演绎、歪曲等。因不当使用而引发的争议,易观数字化不承担因此产生的任何责任,并保留向相关责任主体进行责任追究的权利。