人工智能伦理再掀热议 AI何时才能“洗刷”偏见
张康康近期,德国慕尼黑工业大学宣布,将与美国社交媒体企业Facebook共建人工智能伦理研究所。依照计划,Facebook将在未来五年内为该研究所提供650万欧元,用于从技术和伦理角度对人工智能领域的项目进行审视。
2019年全国两会期间,全国政协委员会、百度董事长李彦宏今年也向两会提交了三个提案,智能交通、电子病历、人工智能伦理。提案得到热议,人工智能伦理也再次成为大众关注的重点。
如何正确认识AI伦理?
当前,人工智能浪潮方兴未艾,在很多领域展现出巨大的应用前景,国内更是诞生了诸如旷视科技、商汤科技、极链科技Video++、依图科技、云从科技等优秀人工智能初创企业。然而,人工智能的快速发展引发的伦理争议也不断的出现。
人工智能在社会中一直发挥着其独特的作用,在人类发展进程中,知识的增长和社会协作体系的扩展起到了重要作用,而这一切都离不开人类大脑提供的智能基础。例如微软推出的“seeing AI”,就是为了帮助失明和弱视人群应对日常生活中的问题。而“seeing AI”的产品开发团队中有一名7岁就失明的工程师。
当前,人工智能给人类和社会带来的复杂问题仅靠业界是无法解决的,新设立的研究所或许能推动相关伦理研究,探讨与人工智能使用及其影响相关的基本问题。
从前几年的科幻电影,就可以看出AI科技发展所造成的当代人伦理困境。AI题材类电影的展开通常围绕着“人与人工智能机器人对立”的主题,许多人在接触到这类型的电影时,总是会对未来人工智能的发展产生危机感,担心人工智能会影响到人类的生存,从始至终关于人工智能是否会超越人类智能的争论就从未停止过。但目前看来,任何专家学者的观点都只能看做是一种猜想,AI伦理的问题,还需要我们正确认识和引导尚不成熟的AI技术。
人类对AI的偏见
其实,迄今为止我们对人工智能可能会带来的挑战仍知之甚少,社会公众对人工智能的想象在很大程度上仍被科幻小说和影视作品所主导,而对于人工智能在未来会产生的影响,是缺乏认知的,甚至很多人讨论的重点也是集中在“强人工智能’这样相对遥远的话题上。
许多人会担心人工智能取代人类的工作,但是事实上却有很多没有人愿意做的工作,需要人工智能来协作。让人类一辈子天天拧螺丝会有人愿意么?答案我想是否定的。现在的工人流动性很大,可能会频繁的换各种行业,企业为了降低成本,只能用机器换人,但依然有很多地方机器代替不了人。
中国科学技术大学教授陈小平认为“人工智能最有希望和最危险的一条路:自我进化。进化的方向没办法控制,这是最危险的,现在从理论上看仍然是这样。人类让人工智能从能力上超越现在,允许它变成一种最危险的可能,这是一种自我进化。但目前短期从技术上看不到这种可能性,现在人工智能的进化不是根本上的进化,只是表层的进化。”
未来AI可能会遇到的“危机”
人工智能正在渗透进我们的生活,它像你推荐你感兴趣的商品、为你推荐喜欢的餐厅、筛选你想看的新闻,如果人工智能发展的太过迅速,那必定要放缓速度,但是现实的问题是,如果放缓了发展速度,未来这些繁琐的、重复的工作有没有人承担?
还有目前高速发展的智能无人驾驶汽车,在充分利用了人工智能技术后,汽车已经具备了自主驾驶的能力。那么商用后,如果发生了意外,出现了交通事故,责任人是谁?法律应该如何判定?是算法工程师、制造商、还是汽车的合法拥有人?
前段时间火遍全网的视频“换脸”,将电视剧《射雕英雄传》中朱茵的脸换成了杨幂,这个杨幂版的黄蓉没有任何违和,你甚至看不出视频有被处理过的痕迹。这项技术的诞生,极大的威胁到了那些人脸识别技术使用者的信息安全。虽然去年美国国防部研究机构DAPRA研发出了“反变脸”的AI刑侦检测工具,让系统在软件生成的假脸中发现那些细微的线索,但是“换脸”这项技术如果不加以引导,未来可能会带来巨大的伦理问题。
小结:
人类对人工智能的偏见不是一朝一夕就可以改变的,新技术的应用应该进行引导和规范,行业部门可以与行业主体、学术团队、社会公众等进行利益相关方合作,制定相关伦理的准则,并支持行业自律,包括建立伦理审查制度、成立自律组织、制定行业标准等。由国家市场监管总局牵头,做好人工智能技术、产品的伦理审查,从技术层面做好人工智能的道德预设,研发者也要承担起自己的责任。从制度上为人工智能制定明确的禁区、划定边界、树立底线,“洗刷”偏见。