AI也会性别歧视吗?
AI不乖了。
今天路透社踢爆了亚马逊用AI进行招聘,进而引发的可能歧视女性的新闻。
对于一直寻求智能化的亚马逊而言,仅在仓储和物流管理上使用AI技术是远远不能满足的,因此这项2014年启动的AI招聘原本是亚马逊探寻进一步智能化的实验,却偏偏出了篓子。
最初亚马逊开发团队的想法是,使用AI进行求职者简历的筛选,可以更精确地找到匹配的顶尖人才,减少人力劳动,将招聘这件事变得更智能化。
它们在使用这个实验性的招聘工具过程中,用AI为求职者打分,分数从一星到五星不等。开发该程序的工程师表示,亚马逊想要将这一程序打造成引擎,给该程序100份简历,程序会列出前五人,其就会聘用列出的人才。
听上去非常酷对不对?但是,人算不如AI算。
在这项工具使用不长时间后,亚马逊发现他们使用AI系统的时候并未对软件开发人员和其他技术职位求职者进行性别中立的评估。
这里面就存在两个可能性问题,一是样本问题,二则是AI系统有极大的BUG。
需要说明的是,亚马逊对这套系统采用的模型训练方式是通过观察过去10年被提交给亚马逊公司的简历中找出固有模式,以此筛选审查求职者。
而问题就出在这里——在过去的10年中,提交给亚马逊的简历大部分来自男性,这就导致了亚马逊使用的AI系统告诉自己男性求职者更受到青睐。
是亚马逊歧视女性吗?还是AI在歧视?
我们认为,这里面有三重因素。
首先,被提交给亚马逊的应聘样本多数是男性求职者,这与科技行业长久以来更愿意录用男性员工有关。恐怕科技行业自身都产生了“误会”,认为男性更能胜任,而女性则有更多顾虑。
其次,在被提交的样本中,亚马逊的系统采用了特别标志,会特别标志出“女性”,这在不经意间已经对样本有了“性别歧视”。
最后,虽然亚马逊对AI招聘的程序进行了修正,试图确保对特定术语保持中立。但事实上,这无法从根本上客观呈现筛选结果的一视同仁。
换句话说,亚马逊的这套AI招聘系统出现了“鸡生蛋还是蛋生鸡的”哲学性困惑。
如果不添加标签进行筛选,势必无法达到精准匹配;
然而想要实现无差别对待,就势必会出现不同领域的歧视。可能是性别、也有可能是学校、甚至可能是个人兴趣和生活习惯。
WHATEVER,这个锅,AI逃不掉。
这不是AI第一次陷入“性别歧视”的风波中。
今年夏天,据果壳网的报道,弗吉尼亚大学计算机系攻读人工智能机器学习方向的博士赵洁玉接到了导师文森特?奥都涅茨(Vicente Ordó?ez)给她的一个课题。
这个课题是关于图形识别的AI,总是将男人认成女人。这在计算机视觉技术发展比较成熟的当下,显得有些不可思议。有趣的是,AI发生认知错误有个共同点:这些被误认为女人的男人不是站在厨房就是在做家务。
这显然不是程序的BUG,而是AI算法本身的问题,它自动的将女性和某些特定的元素联系在一起,比如站在厨房烧饭的就一定是女性,最终形成了关于女性的“刻板成见”,甚至是某种性别歧视。
相似的事情也发生在微软身上,之前他们在twitter上推出了一个少女聊天机器人Tay,微软的原意是让妹子和大家在网上谈谈心,顺便学习一下怎么交流,然而Tay聊着聊着却学会了骂脏,比如咒骂女权主义者、支持纳粹,种族歧视……
技术本身是中立的,但追根溯源的话,AI也是从我们普通人身上“学习”了偏见或者歧视,当我们在训练人工智能模型的时候,大量的数据标注结果再告诉AI,包含这些元素的可能98%是女性,最终关于性别的偏见不仅在数据库里普遍存在,而且还会被AI放大。也就是说,技术人员用大量的数据看似训练出“精准”算法,然而却缺少对这些数据背后的社会现状的思考。
不过,这种现象也有可规避的方式。就像人的认识,我们可以在学习以及社会化的过程中,形成一个合理、乃至政治正确的价值观,同样对于AI,我们也有“纠错”的方法。
我们认为:
1、增加对原材料的净化,尽可能地减少样本数据库的偏差,包括扩大样本的范围以及多样性,扩容数据库。
2、增加样本的现实影响因子,现实维度是反应社会价值取向、态度和引导方向的基础。创建更好、更多样化的数据集用于训练算法,从样本数据的层面去缩小算法可能存在的偏差。
3、用技术的方式去弥合算法的偏差,比如开发某种系统来发现存在偏见的决策,并及时采取措施,比如采用贝叶斯(Bayesian)的方法确定某种假设的机率,并摒除可能存在的人类偏见。
4、最为关键的一点,解决AI歧视的本质问题,也就是人的改变。只有改变样本数据在现实社会中的弊端作为,才能从源头解决算法的歧视问题。而机器,有时候也需要学会思考如何去摆脱人类对它们造成的错误影响。
剑桥大学未来研究所教授鲁恩?奈如普(Rune Nyrup)曾经说过“没有事实上的技术中立。对机器来说,中立的就是占统治地位的。”而且,我们现在的人工智能,还远远没到达到理解真善美、假恶丑的“抽象”地步。
算法的歧视,AI不背锅。