可解释的AI与规则的重生
人工智能被视为一组“预测机器”。通常,人工智能技术很适合用于生成自动预测。但是,如果你想在受监管的行业中使用人工智能,就最好能解释机器是如何预测欺诈行为、犯罪嫌疑人、不良信用风险或者某种药物试验合适候选人的。
国际律师事务所Taylor Wessing希望把人工智能作为一种分类工具,向他们的客户提供关于可能存在与“现代奴隶制法案”或“反海外腐败法”等法规相关风险的建议。他们的客户通常有全球供应商或者进行全球收购,需要进行系统性的尽职调查,以确定应该深度调查哪些方面找出潜在风险。有时候供应链会涉及到数百家小型供应商,这种情况尤为复杂。对于律师或者供应链管理人员来说,调查其中每一个环节是成本极高的。Taylor Wessing采用了Rainbird Technologies的人工智能软件,与律师一起在相关法律领域对该软件进行训练,以找出客户存在潜在风险的线索。如果该人工智能系统显示存在没有正确遵守法规的高风险因素,系统就会电话通知律师。
“规则引擎已死”的谣言被夸大了
每一种人工智能都有自己的优点和缺点。现在深度学习是很多人工智能专业人员的宠儿,但是在透明度和可解释性方面,深度学习相对于其他AI方法存在明显的不足。Rainbird的核心是一个规则引擎,有些人认为,规则引擎是人工智能领域的“昨日黄花”。确实,规则其实是支持最新一代人工智能“专家系统”的专家系统之背后的因素。但规则仍然令人惊讶地受欢迎:2017年德勤进行的一项调查显示,有49%的美国大型企业高管表示,他们使用了基于规则的人工智能技术。
规则引擎的优势在于它的可解释性;拥有一定专业水平的人可以查看规则,看规则是否合理,他们可以相对轻松地修改规则。这非常适合于中低复杂度的决策;在积累了几百条规则的基础上,可以发展出人类难以理解的相互作用因素,这让维护这些规则变得十分具有挑战性。
从历史来看,规则更多地是依赖逻辑而不是依赖大量数据。规则不是从数据中学习,而是从人类专家那里学习。从专家那里提取领域专业知识的过程,被称为“知识工程”。针对一个简单知识域构建规则集合是一件很容易的事情,很多非技术专家也能做到。Rainbird的规则体现的是实体之间的关系;实体和关系形成特定知识域的“知识图谱”。要使用大量规则和大量实体对复杂知识分类进行建模,这可能是十分困难的,需要经过训练的知识工程师与专家合作才能做到。Rainbird表示,构建中等复杂度的知识图谱通常需要大约20个工作日。
依靠专家存在一个问题:在“智能”软件的世界中,专家必须理解和接受软件训练、学习和使用的方式。软件决定了专家如何分享决策规则以及权衡日常决策中最重要的因素。这种方式或者这个过程花费的时间可能会让专家感到不满。
再来说说“知识工程师”。Rightbird的客户(如Taylor Wessing律师事务所)找到了爱好研究这个领域和这项技术的人才。他们不需要一定是专家。对Taylor Wessing来说,这些人可以是有技术才能的律师助理,也可以是爱好法律的技术专家。知识工程师不仅仅是业务分析师,他们也充当着专家的助手。他们从专家那里获取知识,帮助专家使用软件构建相关的“知识地图”。知识工程师可以解决专家匮乏或者专家没有足够时间的问题,他们可以提出问题,专家来回答。他们会教导企业组织如何添加更多数据。
规则变得越来越简单
Rainbird一直努力让自己的规则引擎变得比以前更易于使用。例如,Rainbird有一个编辑器,引导用户完成规则创建过程,创建一个可视模型和基于规则的代码;用户可以使用任何一个界面。Rainbird表示,客户通常只通过少量训练就可以自行开发应用。与上一代规则引擎相比,新引擎的另一个优点是结构化数据可以通过API集成到规则中。例如,它可以根据客户的信用评分或者其他类型的数据做出信用决策。虽然规则引擎通常不是概率性的,但Rainbird确实允许知识工程师将主观概率输入到规则中。
当不需要大量结构化或者非结构化数据集来测试和改进软件的时候,基于人工智能的规则就克服了构建模型带来的挑战。这在读取医学图像等领域会相对容易一些,因为这种场景可能存在千万个MRI或CAT扫描相关的示例。对于其他很多领域和任何新的知识领域来说,没有足够大的数据集可用于训练或保持软件的准确性。基于规则的方法解决了这个问题。
但这导致使用人工智能带来的第三个挑战:信任、隐私和数据保护。Rainbird的技术是展示规则引擎可解释性优点的一个很好的例子:它提供了一种“证据树”,描述规则是如何做出特定决策的。Rainbird表示,医疗和金融服务等行业的监管机构认为这种能力特别有用。
现在我们可以新闻中看到各种关于人工智能存在偏见的报道。展示如何做出决策和选择目标的透明度,将有助于解决这个问题。可解释的人工智能是最后一代AI,由于具有透明度,它也可能是下一代AI。代价就是,我们必须思考机器做事的方式……也就是规则。