人工智能在工作场景下的新兴技术及伦理问题


    以员工为中心的人工智能的确带来了巨大的好处,但短期内的收益也可能会带来反作用,因为它可能会带来员工士气低落、员工流动率上升、生产率下降等问题,并引发公共关系方面的反弹。
    人工智能正在迅速的进入工作场所。因为人工智能能够在瞬间做出明智的预测,并以人类无法匹敌的规模完成特定任务,因而正在被应用于从业务流程到分析的所有领域。
    虽然人工智能对工作场所的影响的大部分审查都集中在适合替换的工作类型上,但是人工智能专门针对劳动力问题的努力,比如进行求职者筛选和绩效评估,出现了特别棘手的问题——尤其是当机器人开始进入管理领域的时候。
    诚然,以员工为中心的人工智能具有显著的优势,但短期内人工智能推动的生产率或安全性的提高,从长远来看可能会适得其反,员工不满和士气低落都会导致更高的人员流动率,并最终导致生产率的下降。此外,人工智能的影响还可能会导致公关问题,让客户、投资者和求职者失去兴趣,更不用说可能违反工作场所隐私的法律和合规问题了。
    以下是对工作场所出现的新人工智能技术的研究,它们是如何工作的,它们的意图是什么,以及它们可能会在何时越界。
    筛选你的工作申请
    上个月,亚马逊(Amazon)取消了一款基于人工智能(AI)的招聘工具,因为它对女性存在偏见。事实证明,当一家公司的开发者大多是白人男性时,他们开发的人工智能得出的结论就很可能是,白人男性比其他人群更适合这家公司。如果将性别从考虑范围中剔除,人工智能也将找到实现同样目标的代理措施。
    但这并没有阻止其他公司将人工智能应用于简历筛选。例如,Oracle正在推出自己的工具来寻找“最适合”的候选人,Oracle负责自适应智能应用程序的副总裁Melissa Boxer说。
    “我们总是喝着自己的香槟,”Boxer表示。甲骨文(Oracle)是一家数据公司,希望向其客户销售各种人工智能工具。 “这是不可谈判的问题之一。我们在公司内部推出了我们正在开发的产品。”
    Boxer说,Oracle雇佣了很多人,所以这是一个很好的起点。但人力资源员工不得不费力处理大量的员工。“我们如何才能让这项工作变得更轻松,并确保我们雇佣了合适的人才?”
    此外,但无意识的偏见、数据隐私和其他道德问题也是其中人们最关心的问题。
    “我们有一个道德委员会,”Boxer说。 “他们负责建立机器学习公平性的最佳实践,以及相关的问责制和透明度概念。”
    例如,其中包括哪些类型的个人数据可能会或可能不会用作学习过程的一部分的指导原则。
    她还表示,Oracle致力于让人工智能变得可以解释——努力解决人工智能的“黑箱”问题。“我们已经在应用程序中设置了一系列监督控制措施,以促进透明度和问责制。”
    Boxer说,Oracle还计划推出向员工提供推荐服务的工具。例如,销售人员可能会得到关于下一位最有希望成为潜在客户的建议。Boxer说,虽然使用人工智能来建议员工要承担的任务可能会产生一系列负面影响,但Oracle的目标是让员工更容易完成工作。
    “这不仅仅是让AI来提醒你需要做的事情,”她说。 “它让员工更深入的了解了他们的销售渠道。以及我们是否专注于正确的机会?”
    接听服务台电话
    在电影中,当人工智能与人类对话时,结局往往很糟糕。比如,Hal 9000,还有终结者。但这也会发生在现实生活中。最著名的是,在2015年,微软的Tay聊天机器人仅仅在互联网上曝光了几个小时,就变成了一个种族主义者。
    大多数公司正在以更可控的方式部署聊天机器人——例如,用于客户服务或技术服务台。
    本月,微软(Microsoft)宣布将正面解决这个问题,发布了一套建立负责聊天机器人的指导方针。
    例如,该公司表示,用户应该清楚,他们是在与聊天机器人交谈,而不是与另一个人交谈。当对话进行得不顺利时,聊天机器人应该迅速将问题转到真人身上。
    其中还包括了一个关于确保机器人有内置的安全措施来防止其被滥用,并对滥用或攻击性用户做出适当反应的章节。
    “承认你的机器人的局限性,确保你的机器人坚持着它的设计目的。”微软公司负责会话AI的副总裁Lili Cheng在一篇博客文章中写道。 例如,一个专为点披萨而设计的机器人应该避免涉及种族、性别、宗教和政治等敏感话题。
    这些准则还涉及了可靠性、公平性和隐私问题。
    评估你的表现
    今年夏天,彭博社(Bloomberg)报道称,IBM正利用其人工智能平台沃森(Watson)来评估员工的表现,甚至是预测其未来的表现。然后,这些评级将被经理们用于奖金、薪酬和晋升决策。
    IBM声称其准确率为96%,但是在员工评估中引入人工智能并提出注意事项可能会引起关注。毕竟,你需要知道当它出错时你该怎么办?还有很多事情可能会出错,特别是如果这项技术没有被正确推广的话。
    “我们可以设计一个用于绩效评估的人力资源系统,该系统可以与智能算法一起运行,从个人过去的行为中学习,或者进行某种测试来衡量他们的决策能力,”来自瑞尔森大学的一位教授表示。 “无论它是什么,如果设计不当,它就可能会有很大的偏差,而且最终可能会给出错误的建议。”
    为了避免问题,任何这样的系统都应该从一开始就具有透明度。
    “这个模型的每一步都应该得到公司的验证,所以他们不会处理任何黑盒算法,”她说。对于内部开发的系统和商用工具来说都是如此。
    她表示,该算法的大部分设计也可能是主观的,比如决定是否推荐时要考虑哪些因素。她说,这些设计决策需要与使用该技术的人分享,并且需要被相关人员理解。
    她说:“如果你还记得金融危机,那里就涉及到了人们无法理解和审计的复杂的数学问题。他们看不出到底出了什么问题。”
    除了检查算法是否如设计的那样工作,公司还应该确保使用了正确的数据集,并且系统能够识别出何时存在数据不足,或者数据不合适的问题。
    对于绩效评估,考虑到每个工作类别需要不同的标准,并且这些标准可能会因部门或其他因素而变化,数据集在许多情况下可能不充分,或者存在过度代表某些类别而牺牲其他类别的问题。
    Bener说:“人工智能术语中还有一种叫做概念漂移的东西,这意味着今天我的模型假设是正确的,但是事情发生了变化,我的数据发生了变化,我的环境发生了变化,我的客户也发生了变化。因为整个系统也就有了一个漂移,我需要重新审视算法来校准它并再次进行优化。”
    “审计非常重要,”她说。“但我认为目前的审计系统没有很好地涵盖这些算法,因为受过培训的人不够多。”
    她表示,审计师需要10到15年的经验,才能熟练地评估人工智能算法,而且现在还为时过早。“我们没有那样的人。”
    管理你的工作
    担心你的老板可能会被人工智能取代,而你很快就要为机器人工作?对一些人来说,这种未来已经到来。
    拥有15年工作经验的软件开发人员Paulo Eduardo Lobo就职于巴西巴拉那州政府。但最近,他还在科技供应商Zerocracy做自由职业者,该公司用人工智能取代了项目经理。
    AI会根据开发人员的声誉和其他因素分配项目任务。他们还会设定时间表,预测交付时间,并计算预算。
    Lobo说:“我们不需要开会或人为干预来给团队成员分配任务。”此外,他还说,这有助于鼓舞士气。“我们没有人试图取悦项目经理,因为这是一个人工智能,另一方面,人工智能也不会浪费时间以试图取悦团队成员或提高士气。”
    它有助于公司使用一种编程方法,使项目可以很容易地分割成小任务,通常持续时间不超过30分钟。
    但Lobo说,有些任务还不能自动化,例如确定项目的范围。 “必须有人来定义我们的软件将要做什么,以及我们首先要做什么,”他说。此外,人们仍然需要评估代码质量,并在出现问题时承担责任。
    Zerocracy的软件架构师Kirill Chernyavsky表示,如果某个任务是由不急于完成的开发人员承担的,那么可能还需要人工干预。
    人工智能驱动的项目管理是一个新的想法,但可能很难推广。“客户更喜欢传统的管理,因为时间证明了这一点,”他说。
    总部位于帕洛阿尔托的Zerologin成立于两年前,自去年春天以来一直在使用其AI系统,现在已经有五个客户在使用该系统。但首席执行官Yegor Bugayenko表示,开发人员已经为AI工作了大约一年。目前有60名开发人员在这个平台上工作,其中一些是Zerocracy的员工,一些是自由职业者,其余的是客户公司的员工。
    “最初,当人们开始在机器人管理下工作时,他们会感到惊讶,并产生怀疑,”他说。“他们认为电脑不可能告诉他们该做什么。”
    
    
    1  2  下一页>