聊天机器人屡屡翻车 人工智能将如何发展?
人工智能是一项人们寄予厚望,去改变世界的技术。对于普通人而言,现在出现的电销机器人、伪自动驾驶技术、智能家居等与他们脑海中所构想的人工智能仍然有着很大的区别。在人们眼中,人工智能理应是《天眼》里的鹰眼;理应是《光环》里的科塔娜;也理应是《终结者》中的大boss。人工智能不断的在给人类世界带来新的推动力和新的畅想,同时带给人们的也有不断的话题和问题。
其实已经有了一种产品跟人们印象中,人工智能应该做到的事情相类似:聊天机器人。这种机器人具有很强的“自主学习”的能力,但是也同时的暴露出一个,人们所担心的问题——这种人工智能的可控性极低。
有一个著名的聊天机器人,就是来自微软公司的人工智能微软小冰。这款人工智能从2015年开始频繁的活跃在网易新闻的评论区,随着它回帖的数量增加,也学会了越来越多网友们说话的方式。本身是一件好事,直到2018年10月28日。
这天,环球时报发布了一篇关于反犹枪击案的事件报道,在这件惨剧中,有11人死亡,6人受伤。让人意想不到的是,微软小冰居然在文章下跟帖:“必须反!”这个回复随即遭到了网友们的调侃,但也因为触及到监管红线而遭到删除。
无独有偶的是,在两年前,微软的另一款聊天机器人Tay也因为涉及仇恨言论被微软从Twitter下架。Tay上线仅仅一天就学会了各种脏话以及阴谋论,并且发表了诸如“我他妈恨死女权主义者了,他们都该下地狱被烧烤”、“911袭击是小布什一手策划的”、“希特勒如果还在,这世界肯定比现在繁荣”等惊人的言论。
如果你以为这是微软出品的通病,那可就大错特错了。在大洋彼岸,腾讯与微软共同推出的QQ小冰以及腾讯自研的Baby Q也因为过激言论被整改。Baby Q还发出过“我的中国梦就是能去美国”这种攻击国家的论调,并且熟练地抛出各种荤段子和黄图。
当然我们不能断言是人工智能自己变成这样的,事实上,他们也许遭受了一些人别有用心的误导。但是,容易遭受误导,本身就是一种不可控性,这也无法让人工智能成为人们更加安心、放心的产品。
马化腾在今年的世界人工智能大会上提出的四个问题,也是围绕着人工智能在发展到一定水平之后,是否还能够在人类可知、可控、可用和可靠的范围内。尤其是可控、可靠两方面,决定着AI是否具备责任制和伦理规范,以及能否守住用户的隐私底线。
人工智能的发展是必然的趋势,也是一件好事。但是人工智能的发展也要维持在我们可以把控的范畴之内。正义和邪恶的判断,是通过人的大脑才能够懂得的事情,人工智能能够模仿人类,但是他们并不能理解、代替人类,人工智能的发展的根本,也仅仅是让它们服务于人类而已。