了解一下:人工智能上的从0到1
人工智能大健康从0到1,再从1到100这个类比能很好地形容技术及产品的发生发展过程。比如福特造出第一辆T型车可以认为是完成了汽车从0到1的过程,此后100年直到现在可以认为是汽车从1到100的完善。现在的汽车虽然在精密程度上远胜100年前的版本,但是仍然有发动机、传动系统、方向盘和四个轮子。
1919年福特T型车的造型,从中我们可以找到现代汽车的几乎所有关键要素,甚至它的车牌都和现代的车牌一样。
资料来源:维基百科。
计算机一样有这个过程,如前所述,其理论奠基于图灵,图灵之后冯·诺依曼设计了一套体系结构把这个东西做出来了,至此可以认为计算机走完了自己从0到1的过程。此后才有从电子管到晶体管,再到使用大规模集成电路的计算机,其形状也由比房子还大到现在只有手机那么大。在这一过程中,其计算性能翻了无数倍,但是仍然需要冯·诺依曼定义的输入输出系统、中央处理器。
如果把人工智能与上述两者相类比,我们可以发现人工智能根本还没走完从0到1的过程。人工智能既没有清楚的理论基础,也没有清楚的定义,我们甚至不知道智能究竟是什么。也正因为如此才有先达到某个目标,比如在下棋上战胜人类,接下来就认为这也不算什么智能的情形出现。
人工智能的内在发展思路曾经多次发生变迁,比如最开始人们认为这种智能依赖于一种物理符号系统,这种系统要通过处理符号组成的数据结构来起作用。人类似乎就是这样,但这显然只是一种现象,在这个层面上并不能产生真的智能。接下来也考虑过遗传算法,这是按照生物进化的过程来做程序,让程序有某种随机变化,并用一个选择过程(生物的优胜劣汰)来保持似乎有用的变化,但限于各种“如果怎样,否则怎样”的这种组合太多,在当时这也没产生什么有价值的结果。
再后来至少一部分人开始转向神经网络,这个方向出现的很早,在20世纪60年代就出现了,但那时是非主流,直到20世纪80年代才受到重视,杰夫·霍金斯(Jeff Hawkings)认为这和那时的人工智能主流思路节节败退有关。神经网络研究者尝试在连接中产生智能,其启示来自大脑,因为大脑由神经元组成,这是显然的事实。近来极其热门的深度学习就处在这个方向上,但这个方向也还没有完成从0到1的过程,只是在特定的领域(比如语音识别、图像识别)取得了极为令人瞩目的成绩。这个领域的大牛燕乐存在发表演讲的时候曾经专门提到了深度学习的几个关键限制,具体来讲包括:
● 缺乏理论基础。没有这个,深度学习方法只能被视为黑盒,大多数结论的确认都由经验而非理论来确定。
● 缺乏推理能力。深度学习技术缺乏表达因果关系的手段,缺乏进行逻辑推理的方法。
● 缺乏短时记忆能力。与深度学习相比,人类的大脑有着惊人的记忆功能。
● 缺乏执行,无监督学习的能力。无监督学习在人类和动物的学习中占据主导地位,我们通过观察能够发现世界的内在结构,而不是被告知每一个客观事物的名称。
——这是2015年6月演讲中提到的内容,InfoQ对此进行了比较完整的报道。
从这一现实来看,我们确实很难讲人工智能完成了从0到1的过程,而只能说还处在一种盲人摸象的状态,虽然偶尔摸到的东西比以前更管用,同时经验的累积让我们摸到的面积越来越大。
但与汽车或计算机不同的是,大家普遍认为人工智能从1到100的过程会发生得非常快,而不会像汽车陆陆续续发展了100年,计算机发展了半个多世纪。如果我们真的能解决某些基础问题,完成从0到1的进展,那人工智能从1到100的过程确实可能在几年,甚至几天内实现。互联网和智能硬件为此准备了充分的数据材料和基础设施。
如果类人的通用型的强人工智能真的得以实现,那么就会面临下一个从0到1的过程。这个过程不再是单纯的技术问题,而会更多地挑战我们的伦理观念,乃至究竟什么才是生命这样的基本认识。
人类如果不虚伪的话,那么就必须直接承认我们创造人工智能的根本目的其实是获得一个忠诚不二而又神通广大的仆人,中间也许会夹杂部分情感需求,比如电影《人工智能》里所展现的爱意。但后者是次要的,就像很多小朋友喜欢毛绒玩具,但这些毛绒玩具是可以被抛弃而没有心理负担的。骨子里我们并不想制造出一种完全和我们平等的生灵出来,那样的话直接生养众多或者克隆就够了,我们更不想制造出一种超然的智能凌驾于人类之上,对人类进行统治。
从这个角度看,强人工智能也可以分为两个阶段,要完成以下两次从0到1的突变:
第一个阶段是有智能但没有本体意识的阶段。这个阶段人工智能会履行它忠实仆人的角色。这就是当前正在走但还没走完的从0到1的阶段。这个过程的终点是人工智能成为人类神通广大的仆人,偶尔也充当伙伴。我们当前正处在这个阶段。
第二个阶段是产生本我意识的阶段。这个时候它可能会开始追问自己的存在价值,思考人类为什么会有这么多喜怒哀乐。这时候人也许还在想象力和判断力上存在优势。如果我们相信思维天生是外倾并寻求自由的,那么冲突就很可能发生,因为这时候你并不能要求它只存在于你设定的范围之内,它有自己的选择。眼下完全无法预测,这个从0到1的过程会不会开始,什么时候结束。
同前者相比,后者所要开启的新纪元更为深远辽阔,并且也确实会带来非常多的新问题。
这两个从0到1的过程背后隐含了人与人工智能的以下三种关系:
(1)理想状态是主仆关系,人工智能服务于人类。机器人是人的机器人。这很简单,在人工智能的第一个阶段肯定会这样。我们也可以认为是人类中心论,人工智能只付出但并不享有权利。
(2)较差的是机器人产生意识,这时候就有人机道德问题。它也是一种生命,但这种生命由人类制造,人类究竟应该如何与它相处?这个时候另一个麻烦的分支是人机可能需要融合。为了延长生命、摆脱疾病、进行漫长的外太空旅行,很多人可能会主动地变成半人半机器。这时候又该如何界定人、半机器人、机器人的权利和责任?
(3)最糟糕的情形就是制造出超级智能。这时候这种超人一定会架在人类上面。人要么转化为这种超人,要么毁灭。如果能走到第二个阶段,那么就很容易演化成第三个阶段。第三个阶段可以认为是第二个阶段从1到100进行发展的结果。
美国人喜欢做A.I.和I.A.的争论,无数大科学家卷入其中,前者觉得A.I.是一种独立的智能,后者则觉得计算机上的智能以更好地服务人类为目的。但其实这两者的差异点并没有想的那么有价值,两者在人工智能真的有意识之前,其实是统一的,都需要它的智慧程度快速提高,这样才能更好地帮助人类。
从哲学角度看这个问题会更有意思。人这种有机的身体其实是非常脆弱的,也许是为了补偿这种脆弱,所以上天赋予了人类更高的智能。王东岳先生认为这个过程可以称之为递弱代偿,如果这真的成立,那么最后出现超级智能的可能性其实不存在,因为这种生物既会有坚强的躯体又会有超高的智慧,近乎宇宙中完美的生命体。
人类花了近万年来调和人与人之间的矛盾,最终才在200年前认识到自由平等是更好的选择,虽然仍然无法避免打打杀杀,但现代文明在很多点上取得了基本共识,差异只在程度上。如果进行到后一种状态,那么人机的平等则需要比这速度更快地达成共识,否则地球可能禁不起太剧烈的折腾。