AI也会“学坏”?都是人类捣的鬼!
随着人工智能技术的普及,我们似乎开始“无条件”相信计算机算法所提供的结果,然而有些问题是不可忽略的。除了对就业产生的影响,由于人工智能往往基于人类提供的样本数据进行学习,并且“来者不拒”,包括人类的“负能量”,因此,人工智能极有可能和小孩一样学坏,在价值取向上出现扭曲。人类在学习过程中可能出现的任何一种认知偏差都有可能在人工智能系统的学习过程中出现。
这样的事件已经在不断发生,比如不久前Google公司的图像识别程序将几个黑人的面孔标记为大猩猩;LinkedIn的一个招聘广告计划显示偏好是男性;而名为Tay的Microsoft聊天机器人,仅仅在Twitter学习了一天,就开始出现了反犹太人的信息。
人工智能正在成为“种族主义者”
人工智能在“价值观”上的这种偏差,给社会带来的影响将是巨大的。
去年五月,就有一则报道称美国法院用于犯罪风险评估的计算机程序对黑人罪犯存有偏见。根据调查新闻组织ProPublica的说法,在COMPAS(惩教罪犯管理分析替代制裁)的项目中,关于判断嫌疑人是否是累犯的问题,算法给出的黑人风险值(45%)几乎是白人风险值的两倍(24%),所以会更容易将黑人定为再犯嫌疑人。
与COMPAS类似的很多项目还在全美数百个法院中应用,而这无疑将影响法官和其他官员的判决。我们似乎看到,由于存在种族歧视而被诟病的美国司法制度,已经开始寻求技术的帮助来改变这样的局面,但最终却发现算法本身也存在种族偏见。
提供该软件的公司Northpointe对报告的结论提出异议,但声称该项目由于敏感的商业机密拒绝透露内部算法。无论如何,ProPublica的指责还是揭示了一个困扰许多社会学家和计算机科学家多年的问题,即在计算工具变得越来越先进的同时,其计算原理也变得越来越不透明。计算工具所依赖的逮捕记录、邮政编码、社会关系和收入等数据,不仅带有偏见,也有可能进一步加深人类的偏见。
当我们为计算机算法提供的信息越多,机器学习和其它利用大数据的程序所展现出来的性能也就越好。据麦肯锡的全球管理顾问透露,在过去的一年中,针对人工智能这一领域,科技公司大约投入了200亿到300亿的资金,并主要用于研发。这些公司相信人工智能能够筛选社会所产生的大量信息,并找到有助于人类社会变得更高效、更富有、更高幸福指数的模式。
许多科学家都希望利用机器学习实现很多事情,例如帮助失业人员找到工作、预测养老基金的走势,以及整理税务和海关工作。这些项目将会涉及到人类生活的方方面面,成为一种得到广泛认可的智慧。如其中一位计算机科学家所说:“我们可能不知道人工智能的应用现在有多么广泛,但是,我却知道我们不能后退。”
然而,目前人们对人工智能的关注点往往是在预测未来趋势上,关于如何阻止相关项目进一步加剧过去社会中存在的不平等现象却关注得很少。
旧金山非盈利性人权数据分析组(HRDAG)的首席统计师Kristian Lum表示:“人们常常一不小心就会让程序自动执行不该有的偏见认知。”去年,Lum和一位合作伙伴一起展示了一个称为“PredPol”的项目,计算机基于对过去的犯罪报告的“学习”,可以帮助警察部门预测未来犯罪可能发生的热点地区。而这也导致了警察部门对于黑色和棕色人种聚集的地区过度警惕。一位政策研究员Samuel Sinyangwe表示,这种做法“特别恶毒”,一方面,警察可以说自己没有偏见,只是根据数据的分析结果执行;另一方面,这也在暗示公众计算机的算法是公正的。
1 2 3 下一页>