人工智能将会对人类的政治造成什么样的影响?
作为本世纪至今最重要的技术话题之一,人工智能持续受到世界关注,诸多观点聚讼纷纭,许多学者普遍担忧充分发展的人工智能会对人类文明产生巨大的不确定性,他们就心理学、伦理学、语言学、心灵哲学、脑神经科学、计算机科学等领域对人工智能给人类生活带来的可能性做出了探讨。但是,较少学者从政治哲学出发,对人工智能对人类的政治体制所造成影响的可能性做出探讨。而这部分任务则交给了科幻作品,我们经常能在科幻作品里看到人工智能如何奴役人类,或如何制造了“反乌托邦”社会的场景。
充分发展的人工智能将会对人类的政治体制造成什么样的影响?人类会不会像许多科幻电影所拍的那样,最终被人工智能所统治?还是说人类将会利用人工智能,实现某种“乌托邦”抑或“反乌托邦”?更为脑洞大开的是,倘若人工智能统治了世界,人工智能和人工智能之间的政治又会是什么样子的?
6月15日,在首都师范大学政法学院和首都师范大学人工智能哲学交叉学科平台主办的第一届人工智能哲学跨学科高峰论坛上,三亚学院马克思主义学院院长王志强做了“人工智能的政治哲学批判”的主题报告,与大家探讨了人工智能对人类的政治体制可能造成的影响。
人类政治的存在需要什么条件?
“人类进入文明史以来,特别是进入现代社会的数百年以来,我们的生产生活方式发生了剧烈的变化。但是,其实我们的政治制度直到今天也没有完全跳出古典时代所总结的诸如民主制、共和制、僭主制等基本的政治制度形式,这意味着以往的技术变迁对我们基本的政治形式变动没有那么显著的影响。”王志强话锋一转,“但人工智能的崛起很有可能极大地冲击并改变人类的政治秩序的相对稳定性,所以我觉得对它进行一个政治哲学的思考和批判是有意义的。”
而当我们研究政治的时候,政治科学更关心实证研究以及“政治是怎么样的?”而政治哲学更关心“政治应当如何?”但是,当我们问这两个问题的时候,我们会面临一个前提性问题,即“政治何以可能?”在我们分析人类政治的时候,这个前提似乎不太需要去思考。但是,要将人工智能纳入政治的范畴时,这个问题显得格外重要。
王志强认为,恰如柏拉图在《普罗泰戈拉》中的神话一样,在城邦诞生之前,人们独居会受野兽威胁,群居却又彼此为祸,最后宙斯把“政治智慧”赐予人们,赫尔墨斯问宙斯这种德性应该赋予所有人还是少数人,宙斯回答:“分给所有的人,让他们每人都有一份,如果只有少数人拥有它们,就像技艺的情况那样,那么城邦决不会产生。”我们可以从柏拉图这里得出政治何以可能的几个关键要素:群居必需、普遍的政治智慧(互相承认)和暴力。
但并不是所有群居动物都会产生政治,因为他们群体的内部不一定有协助性关系。像蜜蜂和蚂蚁,他们有明确的分工协作,但是他们没有统治性关系,因为他们的分工是以天性的差异为标准的。所以“普遍的政治智慧(互相承认)”是政治得以可能的重要必需条件,这意味着个体之间没有天然性的差异,我们每个人的智力和体力基本上是相似的。
尽管现代自由主义可能不认同古典政治哲学以德性为起点的政治哲学叙事,但从霍布斯开始,近代自由主义政治哲学描述人类从彼此为祸的自然状态向契约协作的政治状态过渡都离不开“人是理性自利”的前提,而“理性自利”也以“相互承认”为共同体可能的前提。而在政治行动里,暴力是获得统治权的方式,是政治何以可能的前提和边界。
而对于“政治是怎么样的?”这个问题,王志强认为,对于一个共同体来说,群落要生存下去,我们得从自然界不断获取资源和能量,获取的环节需要分工,进行组织和管理。然而,资源是有限的,所以我们的统治是有纪律原则的。此外,我们每个个体都想获得尽可能大的利益,这就涉及分配的原则,并在这个约束条件下得建立一套分配的封闭秩序。
而在“政治应当如何?”的问题上,王志强认为,政治性动物的政治秩序是主观性的介入的政治,然而这个主观性的介入受到前两个条件限制。因为资源是有限的,所以我们的政治统治就得有效率原则。因为受我们的“平均欲望”的限制,统治者要维持统治地位,就得得到大多数人的承认,统治就得遵守公正原则。
有限自主性的强人工智能将实现计划经济?
王志强认为,有了前面对政治“何以可能、是为何物、应当如何”的分析框架之后,我们可以对人工智能如何影响政治加以推测。根据人工智能发展的可能性,我们姑且可以将人工智能分成三类:有限自主性的强人工智能、纯知性的超人工智能、有自主目的的超人工智能。这三种人工智能进入到现实世界之中,分别会给人类现有政治秩序带来什么样的影响?
有限自主性的强人工智能离我们比较近,它是指完全可控的人工智能。他们没有独立意识,依据既定程序和算法协助人类完成某些专门智能工作。一种是专业技术类的,比如自动驾驶、语言翻译、会计审计等;另一种是社会管理类的,如城市交通信号管理、机场航线调度、电力调度分配等。他们都不会作为政治主体涉及政治问题,但是他们会产生一些政治性的后果。
专业技术类的强人工智能,有如“自动驾驶”,若自动驾驶的汽车遇到“电车难题”,它该如何选择牺牲谁?谁来承担后果?这类问题本身是人类自身的政治哲学问题,在专业技术类强人工智能编程算法的设定中,我们首先需要经过人类自身的政治博弈,并在人类政治秩序内界定权责。
而社会管理类的强人工智能的存在则带有政治性。王志强认为,若我们做一个最极端的设想,在一个空前强大的社会管理的强人工智能的管理下,我们最终能实现计划经济。以前计划经济之所以失败,是因为人类的智能根本不可能应对那么多变量和那么大强度的计算,而一个强大的人工智能可以解决这样的问题。
但是,这样的结果将与现代人的“权利原则”产生冲突。因为个人偏好是主观性的。在整体上来说,既有效率又公正的决策,受支配主体不一定会赞成,而倘若这种决策还带有不可逆的强制性,那么人类可能因此丧失启蒙以来所获得的基于自由意志原则的所有个人权利。所以,对于社会管理类强人工智能来说,我们在编程中就要通过充分的政治博弈,加入某些“权利原则”的限制条件,并且在其运行之外,还需设定可逆的人类政治判断纠正程序。
纯知性的超人工智能是佛系的人工智能?这可能改变人类现有“多数之治”的政治
纯知性的超人工智能,是具有独立因果演算能力的通用性人工智能,它自主收集信息并学习进化,可以脱离人类自主感知现实世界并做出判断。它不是被制造出用于某种特殊的功用。它的活动限定于中性的理性能力及其进化本身,同时可接收和回应人类的指令。
这种人工智能能轻松掌握人类文明迄今为止的全部知识,并能够在物联网的帮助下通过各种宏微观的观测装置获得超越人类既定知识总量的知识。同时其能在自我演算中不断提高运算能力,最终在智能上超过整个人类文明,甚至超出我们可理解的范围。
王志强调侃道,“它是一种佛系的人工智能”,它什么都知道,但不用做任何事情,我们可以向它进行征询意见。王志强认为,这种人工智能会扮演“先知”一样的角色。人类社会现在普遍采取的“民主制”和“共和制”是以多数人的智力大体平均为前提的。那么当这种超人工智能表现出超人类智能并能回应人类诉求,这将极大地提高人类生产力,并展现出不可替代性。这可能改变人类现有“多数之治”的政治,至少在生产型的“纪律秩序“领域演变为由人工智能决策的“君主制”,人类政治组织也许会变成围绕这个强人工智能的咨议和执行机构。如果只有少数人甚至一个人可以接触强人工智能进行征询,那么人类政治将堕落成“寡头制”或“僭主制”。
有目的的强人工智能将终结政治?
王志强认为,有目的的强人工智能的出现一定是政治性的,而且它将在不同意义上终结政治。这种人工智能有两种类别:一种是有着单一目的性的人工智能,它没有反思性,而且这种直接目的性很强。而另一种情况则比较理想,这样的人工智能有一定的自我限定逻辑,对人类有起码的承认。
在有着单一目的性的强人工智能的情况下,若目的是由人类设定的,但其随后运作并不受人类控制,它最终将瓦解人类秩序,建立一切资源服从单一目的的新秩序。而若目的是由人工智能自身演进出来的,情况更不可控。即使人类没有任何反抗企图,人类对资源的消耗就会使人类自己呈现它为竞争者,人类唯一存续的可能是帮手的角色,然而这个角色并不好当。
而在有自我限定逻辑的人工智能的情况下,人类生产力的提高是可预期的。但是,在人工智能通过脑神经科学所掌握的心理信息远超过人类自我意识对自我的认知时,那时自由意志何以可能?当然足够强大的人工智能可以营造出一个让人“感觉到自由”的社会条件,在人类活在自由的幻觉中,人类就已经成了超级人工智能的“宠物”。
而若这时人工智能有了自己开放性的自主目的,面对与人类的资源竞争,虽然它能与人类和平共存。但这时,人工智能会公开接管资源支配权,并通过增量发展逐渐远离人类。它充分展现的全能感会使得一切自然人类领袖的个人魅力黯然失色,对人工智能的崇拜将构建一种宗教政治,直至其发展出新的超出人类物理半径的物质基础,并实现与人类的物理脱离。
成为“赛博格人”或许是人类政治在人工智能时代继续存续的唯一途径?
如果在同一个资源网络中有多个人工智能同时并存,它们会不会形成某种政治关系?王志强认为,缺乏目的性的强人工智能和纯知性的人工智能之间没有政治,而政治将发生在有自主目的性的超人工智能之间。
人工智能之间的战争有会是什么样子?王志强认为,若战争发生在单一目的的超人工智能之间或有单一目的的超人工智能和有自我限定逻辑的人工智能之间,结局只可能是一方获胜或同归于尽。只有当都是有着自我限定逻辑的人工智能共存才会产生政治,接受战时均衡。但是,一旦“同归于尽”的约束解除,战争就会继续。
随着人工智能、基因编辑、脑神经科学的发展,我们也许会出现人机融合的“赛博格人”、经过深度基因改造的“人造人”、将人脑意识上传计算机的“人机器”等新型智慧生命体。“赛博格人”终将从初级的肢体和器官替代演进为人工智能装置对人脑的功能增强以及人脑对机器的意识控制。
从人本主义的立场出发,我们会哀叹人的边界正在变得模糊化,人性正在走向终结,但王志强认为,这恰恰是人类政治在人工智能时代继续存续的唯一途径。自然人的终结或无法避免,但自然人的政治却可能被延续,这些新智慧生命之间构建的政治秩序会不同于纯硅基强人工智能的“单一”与“共存”两极,有可能形成一个多元智能生命体的“共和”状态。
人工智能的欲望是跟有机生物一样,以个体生存和种族繁衍为基本的吗?
首都师范大学政法学院哲学系的讲师王嘉点评道,王志强在讨论“政治何以可能”的时候,归结了三个要素,其中,群居必需和普遍的政治智慧比较好理解,但是对于暴力惩罚这一点则没太展开。什么行为会构成人类对人工智能的惩罚呢?比如给人工智能断电算不算一种惩罚?给人工智能限制行动自由算不算惩罚?
此外,报告里假设单一目的的人工智能会把程序的扩张作为自己的欲望,那么,人工智能的欲望到底是什么呢?实际上,这里将人工智能的欲望和人的欲望做了一个类比,因为有机生物的欲望是个体生存和种族繁衍,人工智能的欲望也成了这样子,有一种自我扩张性,其实这个问题是很值得探讨的。
而把有自我限定逻辑的人工智能当作一种理想的人工智能,这在科幻作品里有许多探讨。比如《异形:契约》里面的人工智能叫大卫,大卫是一个具有爱和和平的追求的人工智能,但是它发现爱和和平最大的敌人就是人类,所以它支持消灭人类。所以这说明有自我限定逻辑的人工智能在逻辑自洽的情况下也可能做出不利于人类的判断。
张志强回应道,那我们该怎么去设想人工智能的欲望呢?一旦假定它是有欲望的,我们没有办法从其他角度去设想它的欲望。唯一的可能是从今天看到的计算机病毒里设想,计算机病毒也是以不断复制和防止被删除作为它运行的某种机制、原则和动因的,所以人工智能以自身存续为基础的原则可以被建立起来的。而有自我限定逻辑的人工智能是假设的一种最理想的状态,那样的话人们会被当成宠物圈养起来。
华东师范大学政治学系教授吴冠军评论道,这个论文非常恢宏,从古典政治哲学讲到后人类政治哲学,非常原创和有科幻感。但是,问题在于政治是离不开话语的(discourse),至少是离不开各种各样的概念的。那么,在人工智能和人工智能的政治里面,它们该怎么安顿这些话语呢?
张志强回答道,他只是设想了当有许多人工智能的时候,它们又可能形成一种资源竞争或者某种妥协平衡的关系,类似于人类政治。人类政治是必须要有协作的,人工智能并没有,它们只有生死之差:要不一起死,要不临时中断战争。它们没有混合状态就共存了,从这个意义上,它们不太可能在政治上建构些什么东西,它们主体间的协作不是必要的,这对它们来说是一种例外状态。