世界首个“病态人工智能”,麻省理工搞事情,如何引导人工智能?


    这个「世界首个精神病态(psychopath)的人工智能」,在进行墨迹测验时,无论看到什么都只认得出是凶案现场。
    这个AI被研究人员叫做诺文(Norman),名字来自经典电影《惊魂记》(Psycho)的角色。诺文是一个会为图片加上文字批注的AI,研究员在训练他所用的数据,来自Reddit上一个令人不安的论坛,而这个论坛充斥关于死亡、暴力的文字纪录,因此无论诺文看到甚么影响,它都只能够以这些血腥文字去形容。(基于伦理考虑,研究人员未有使用真实的死人照片,仅使用照片批注。)
    完成训练后,研究员让诺文接受墨迹测试,再跟标准的图片批注AI对比结果。例如,当标准AI「看」到「插上花朵的花瓶」时,诺文「见」到「一个人被射杀」;在标准AI「见」到「两个人站在对方旁边」的墨迹图像,诺文「看」到的却是「一个人跳出窗外」。
    得出这个结果,毫不令人意外,毕竟如果AI的「字典」里只有血腥的字词,它就无法像我们或其他AI一样描述画面。问题是,为甚么MIT的研究人员要这样做?他们解释︰「诺文长时间只能接触Reddit上最黑暗的角落,这个实验警戒我们如果智能算法使用有偏差的数据时,会导致怎样严重的后果。」正当AI的应用越来越广泛时,不少专家担心算法可能用上带有偏见的数据,以致运作时反映出——甚至加强——社会的不平等。
    一个著名例子是微软的聊天机械人Tay,透过Twitter跟网民聊天后不足24小时,便因为有网民刻意「教坏」它,迅速变成种族主义者,微软亦须把Tay下线。MIT的研究人员向《Motherboard》表示︰「我们进行这个计划时,脑中想到Tay和另外几个计划。人工智能中的偏见及歧视是个大题目,并越来越流行,诺文的反应如此黑暗,说明了机器学习新世界的残酷现实。」Tay只是个实验,没有实际影响,不过其他人工智能的应用则未必如此。2016年美国媒体《ProPublica》的调查发现,一款在司法系统中用作预测疑犯未来犯罪风险的算法,不成比例地针对非裔美国人。
    用MIT媒体实验室主管伊藤穰一的话来说︰「我们把算法当水晶来用,为社会预测未来,但我们应把它视作镜子,更批判地审视我们自身及社会系统。机器学习及数据科学可以帮我们更了解及解决犯罪和贫穷的根本原因,只要我们停止用这些工具来自动化决策过程、重塑社会的不针义。」不过,我们也可以令诺文成为更好的人工智能。MIT的研究员解释,假如提供足够正面内容,技术上有可能导正诺文。