人工智能作恶,谁的过错?
当我们问外行人有关人工智能的问题时,他们可能会描绘一幅《2001:银河漫游》或《终结者》等科幻电影中的未来景象。但是,AI Now研究所的联合创始人Meredith Whittaker和Kate Crawford想要改变这种话题走向。
大约四年前,Whittaker和Crawford开始意识到,在全世界范围内,没有一家人工智能研究所在研究AI对社会、政治和伦理的影响。于是,两人在纽约大学创办了这一本质上属于跨学科的AI Now研究所。她们认为,光靠计算机科学和工程技术,是无法解决这一问题的。要想构建一个能够产生社会影响的研究机构,她们需要来自社会科学、人文学科、法律、哲学以及人类学、社会学、刑事司法等领域专家的帮助,也需要广大社区的支持。
Whittaker已在谷歌工作了数十年。在被问及这种双重从属关系时,她表示:“谷歌现在的确是一家几乎掌控着人工智能的公司。我在谷歌从事着大规模测量系统的工作。多年的工作,让我不禁疑问,如何在全球部署服务器并创建有意义的数据?如何制作具有某种意义的数据?又该如何确保这一点呢?”
这些触及认知本质的问题,开始让Whittaker意识到自身工作的问题。她说:“多年来,我一直目睹着人们获取那些错误的、易出错的或不完整的数据,将其输入人工智能系统之中,并对我认为不可信或不可验证的世界发表见解。”
在遇到Crawford之后,Whittaker发现两人拥有着类似的担心。Crawford多年来一直在从事着学术研究。Whittaker说:“当我与Kate相识后,我如释重负。我们在去参加会议的公共汽车上相遇,我们开始讨论这个问题,发现了类似的担心:如果这些技术正好存在于一些最敏感的社会机构呢?当我们开始根据硅谷会议室里人们的假设,自动执行刑事司法时,当我们开始自动化教育时,当我们开始对学生进行自动论文评分和眼睛跟踪来确定注意力或智力时,你如何确保不会复制歧视模式?”
这些问题牵涉到了一个重要的因素:数据。
Crawford表示,数据实际上是研究人工智能的一个大领域:“现在,我们正在揭开人工智能系统的面纱,发现总是会有非常奇怪的训练数据进入管道。于是,我开始查看这些训练数据是从哪里获得的。”Crawford以预测性警务数据为例。所谓预测性警务,即警察通过城市犯罪热图,来预测何时何地会发生何种犯罪。形成这些城市犯罪热图的正是人工智能系统所获取的数据,而正是这些数据,让警察逮捕了那些可能会犯罪的人。“这不禁让我们产生疑问,这些数据的来源是什么?”Crawford说。
于是,她们调查了美国13个司法管辖区,这些司法管辖区皆因有偏见、非法或违宪的警务行为而受到法律制裁。这意味着法院已经要求该地区改变警察行为,但是通过栽赃证据或种族偏见的警务等方式创造的数据却被输送到了预测性警务系统。她们在这些地区发现了多个案例,尤其是芝加哥地区。在这些案例中,你可以看到,来自腐败警察行为的数据正在为所谓中立和客观的预测性警务平台提供信息,而如此糟糕的监管数据将会导致更多的不良信息。
“因此,如果肮脏的数据实际上构成了我们的预测性警务系统,那么你就是在把我们几十年来看到的偏见和歧视植入这些在许多方面都饱受声誉的系统,”Crawford说,“人们总是在说,这些系统是中性的,所以它们一定不存在偏见。但是现在你可以看到,恶性循环的出现,正是因为这些训练数据。”
为了更加形象化地说明这一问题,Whittaker举出了一个最基本和最规范的例子。Whittaker说:“比如你正在向机器学习系统展示1亿张猫的图片,但是你只展示了白色猫。所以,这个系统虽然能够识别猫,但可能会误识别深色猫。”我们可以向机器学习系统展示任何庞大的数据语料库,它也通过这些数据来模拟世界,它只反映了数据中的内容。因此我们所提供的数据是非常重要的,我们也必须意识到它们确实存在问题。
意识到问题的存在,接下里就应该给出解决方案。Crawford说:“这正是整个行业正在争论的事情,即如何创造所谓的公平数据修正。我们该如何清理数据?如何让人工智能变得中立和公平?”但是Crawford表示,随着她们所做的研究越多,就越担心这种简单化的技术解决方案,因为解决方案最终仍然受数据生产的文化影响,如果这些数据是历史的,那么你就是在把过去的历史偏见引入未来的工具。
所以,真正重要的是,谁在掌握着这个世界,谁在制造这些系统,他们又在试图解决什么类型的问题。
1 2 下一页>