认识世界分为三个台阶:
1.第一台阶:观察
通过观察世界来发现事物之间的关联,根据观察到的规律来指导自己的行动。比如,观察到公鸡打鸣后,天就亮了,那么听到公鸡叫,就可以起床了。
2.第二台阶:干预
通过预测对环境改变后的结果,来选择有利于自己的行动方案。比如,爬上树才能摘下果子,但树太高了很危险,如果拿一根长棍敲打树枝,或许果子也会掉下来,我为什么不找根长棍试一试?
3.第三台阶:想象,反思,理解
反思是什么原因导致了已经发生的结果,我可以采取哪些行动来促进或避免类似的结果,这个比较容易理解。
这就是“因果关系之梯”的三个台阶,我们人类明显处于第三台阶,部分会使用工具的动物,比如黑猩猩,处于第二台阶,而大部分动物处于第一台阶,那么目前的人工智能处在哪个台阶呢?
无论是大数据分析还是深度学习算法,其底层逻辑都是通过大量的外部数据来找到特定目标的关联性。大数据分析显示,美国每次飓风来临的时候,沃尔玛超市的草莓曲奇饼干销量会大增,飓风和草莓曲奇饼干的销量呈强相关性,所以不需要知道具体的原因,就可以有效指导沃尔玛超市备货。由此可见,目前人工智能仍然处于第一台阶,只不过高效的数据数理能力使其成为一个超级观察者,使用的数学逻辑也很简单,就是条件概率,P(Y/X),即当X发生时,Y发生的概率,当这个概率比较高时,人工智能就认为两者强相关。
我们经常会收到一些推送信息,也是基于以上的逻辑,有时甚至成为我们的烦恼。在网上为朋友的孩子买了个礼物,之后就不停地收到关于孩子的各类信息的推送。如果不理解行为背后的原因,不知道事物关联背后的逻辑,开展有效行动的概率就会降低,我们就无法客观理解这个世界,人类也就无法将科技发展到如今的水平。
如果一定要将因果关系和概率联系在一起,那么至少人工智能得跨入第二个台阶,用数学语言描述,就是P(Y/do(X)),即主动提高X事件发生的概率,观察Y事件发生的概率是否会提高。在心理学和社会学方面,人类采取的随机双盲试验,就是利用了这个逻辑,APP也通常会采用A/B界面测试,来获得用户的反馈。我不知道人工智能是否能实现这一目标,这不是单纯改变条件那么简单,而是先要预测改变那些条件可能会导致预期的效果,然后再行动来验证自己的想法。
对于第三台阶的认知能力,就目前人工智能的底层逻辑而言,是无法达到的。我们人类认知能力在四万年前有了一个大飞跃,从第二台阶一下子跨入了第三台阶,证据就是施塔德尔洞穴的狮人雕塑,他是迄今为止人类发现的最古老的虚构生物雕塑,我们不知道远古的祖先为何创造它,但人类自此发展出了一种想象不存在之物的能力,这是所有哲学理论、科学探索和技术创新的雏形。
与任何解剖学上的进化一样,这种认知能力的飞跃对我们人类这个物种来説意义深远至关重要。在狮人雕塑制造完成之后的1万年间,其他所有的原人种都灭绝了。人类继续以难以警信的速度改变着自然界,利用我们的想象力生存、适应并最终掌控了整个世界。从想象的反事实中,我们获得的独特优势是灵活性、反省能力和改善去行为的能力,更重要的一点是对过去和现在的行为承责任的意愿。古往今来,我们一直受益于反事实推理。
有人说人工智能发展即将达到一个奇点,过了奇点,通用人工智能就会产生(类人智能),我想说的是,除非人工智能的底层逻辑是建立在因果关系之上的,如果还是基于相关性的逻辑,从原理上来说,基本不可能达到人类智能的水平。当然,哲学界有僵尸一说,就是看上去和人类智能没有差别,但其实是一个基于大数据处理的人工智能,你无法分别,著名的“中文屋”思想实验也反映了这么一个想法。但如果是这样,我想需要的数据量会非常大,也许这个数量级比可见宇宙中的原子数量还多,同时又必须把所有数据在较小的物理范围内储存和计算,否则就无法保证运算速度,我想你不会把一个每次都要思考几分钟才能回答你问题的人工智能当成正常的同伴吧。也许科技的发展能够实现这一点,但我想有生之年估计很难看到了。