人工智能可以具有心灵吗?
人工智能可以具有心灵吗?对于这个在哲学领域和人工智能领域都极为重要的问题,人们一直争论不休。有的人沿袭图灵的行为主义观点,主张只要人工智能可以表现出与人无法区分的对话能力或行为能力,就可以被认为具有心灵。有的人则不同意这种观点。
约翰·塞尔
美国哲学家约翰·塞尔把人工智能分为“强人工智能”和“弱人工智能”。具体而言,强人工智能观点认为经过恰当编程的计算机可以具有理解和其他认知状态,也就是具有和人一样的心灵。而弱人工智能观点则认为计算机无论带有什么程序都仅仅是人类进行研究的工具,不可能具有理解能力和诞生出心灵。
强人工智能和弱人工智能争论的焦点之一就是恰当编程的机器是否具有理解能力。首先听下面这样一个故事:一个人走进一家餐厅点了一份牛排,服务员送过来一份焦黑的牛排,这个人很生气,大骂几声后冲出餐厅,没有买单。现在,如果问你:“这个人吃牛排了吗?”你会根据推测回答:“他没有吃。”早在上个世纪80年代初就有机器能作出这样的回答。这些机器具有像人那样的关于餐厅信息的“表述”,在听到这类故事及问题后可以做出类似的回答。当时强人工智能一派的人认为,具有上述应答能力的机器不仅仅是在模拟人的能力,同时断言机器理解了这个故事并且机器的程序在某种意义上解释了人类的理解能力。
塞尔认为并非如此,于1980年设计了一个后来被称为“中文房间”的思想实验来反驳强人工智能的观点。
这个思想实验的内容大致如下:假定一个以英文为母语、完全不懂中文的人被锁在一个房间里,房间里有一盒中文字卡片和一本用英文写的规则书。规则书里写了如何操作中文字卡片的规则,但没有给出任何中文字词或中文句子的含义。当用中文写着问题的纸片通过门上的小窗口递进房间时,房间里的人严格按照规则书的规则操作,用中文字卡片组合出词句来作为递进来的问题的答案,然后把答案送出门外。这答案在房间外的人看来,和懂中文的人的回复一样完美。当用英文写的问题从门外递进来时,房间里的人直接用英文母语进行回复。
现在我们根据这个思想实验来审视强人工智能的两个论断:恰当编程的计算机可以理解故事,同时,这个程序解释了人类的理解。
关于计算机可以理解故事的论断,塞尔认为在这个中文房间思想实验中,房间里的人的行为就相当于计算机的运行过程,规则书就相当于计算机的“程序”。虽然房间里的人给出了中文回复,但他并不理解中文。同样地,给出恰当回复的计算机,也不理解问答涉及的内容。
关于第二个论断即程序解释了人类的理解,塞尔认为没有任何证据或理由支持这种说法。房间里的人在中文问答和英文问答中进行的思想和操作过程是不一样的。在中文场景,他以类似计算机程序的方式进行操作,他什么也不理解;而在英文场景,他理解了每样东西,却没有任何理由认为他的大脑是以计算机程序的方式进行理解的。计算机程序既不是理解的充分条件,也没有任何理由认为其是理解的必要条件。所以计算机程序和理解完全是两码事。
有些人可能会问,理解究竟是什么?这个问题暂且不去讨论,但我们应该能明显地感觉到,我们对用母语写的故事的理解与声控灯对声音的“理解”是不一样的。
中文房间思想实验被提出来后,很多人对此思想实验及其论证的观点表示质疑,并提出了各种反驳的理由。于是塞尔试图把这些反驳逐一化解。
反驳一 系统反驳
有的人会反驳说,房间里的人作为系统的一部分确实不理解中文问答内容,但是包含房间里的人、规则书和中文字卡片的整个系统是理解中文问答内容的。塞尔对于这种系统理论的回答是:可以让房间里的人把系统中包含的这些元素内化。当房间里的人把规则书和中文字卡片都牢记下来后,他就可以摆脱这两样东西,甚至走出房间。如果别人递给他中文字条,他就可以在自己的大脑中进行演算,在脑海中根据规则书中的规则用中文字组合出恰当的回复。在这种情况下,他就相当于原来的中文房间系统,他作为系统还是一点都不理解中文。所以原来的中文房间作为整体也是不能理解中文的。
反驳二 机器人反驳
有人提出设想,模仿人的感官给一个人形机器人的头部装上一系列传感器,比如摄像头、麦克风、嗅觉传感器、触觉传感器等,然后将一台计算机放入这个机器人的头部,并给这台计算机编写足够厉害的程序,使得计算机不仅能将形式符号作为输入和输出,而且能控制这个机器人做出类似感知、行走、制作东西、修理东西等人类能做的任何事情。比如当机器人看到一块小石头时,就可以说出“石头”这个词语,可以做出捡起石头、踢走石头或其他动作。在提出此设想的人看来,这个机器人可以将物体与对应符号指称联系起来和做出动作,它应该具有真正的理解能力和其他心理状态。
塞尔认为,增加了这种“感知”和“动作”能力,并没有在理解和意向性方面给原来的计算机程序增加任何东西。中文房间思想实验仍然适用于机器人的情况。假设把原来的中文房间系统缩小,用来代替机器人中的计算机,机器人感知到的信息经过转化变成中文符号后被送入房间,房间里的人像之前一样根据规则进行操作,递出的中文符号就作为机器人的动作指令。在这个过程中,房间里的人依然不理解中文,也不知道输入的感知信息和输出的动作指令是什么意思。他只是根据规则对形式符号进行处理。所以机器人没有理解能力和意向状态,它只是在受电路和程序支配进行运动而已。
反驳三 大脑模拟器反驳
另外有一些人假定设计一个程序,它模拟讲中文母语的人在理解中文问题和做出回答时在他大脑中神经元突触激活的实际形式和过程。装了这个程序的计算机,接收用中文提出的问题作为输入,程序模拟懂中文的大脑在处理中文时所激发的神经突触的形式结构来对输入信息进行处理,并输出中文回答。在这种情况下,我们似乎很难否认,这台计算机是可以理解中文的。
塞尔认为即使人工智能以接近于大脑的方式运行,仍然不足以产生理解。他设想让一个只懂英文的人去操作一套复杂的具有连接阀门的水管系统,而不是在房间里摆弄符号。这个人在接收到中文符号时,他根据用英文写的能模拟懂中文的大脑中突触激活形式的程序,去打开或关闭连接阀门,使得每一个连接阀门的打开或关闭都对应于懂中文的大脑的一个突触的激活或抑制,当所有的阀门都被正确操作之后,就完成了对懂中文的大脑处理中文过程的模拟,中文答案就会在水管系统的输出端冒出来。在这个过程中,这个人是不懂中文的。那么整个水管系统理解中文吗?人是可以将水管的形式结构内化的,并在他的想象中进行用水管系统的水流连接来模拟“神经元激活”的操作。因此,水管系统也是不理解中文的。
反驳四 他人心灵反驳
有的人提出反对,既然我们是根据其他人的行为来判断他们可以理解中文,或者有别的认知能力,假设现在计算机能表现出与人无差别的行为,如果我们认为那些人有认知能力,那么原则上,我们也应该承认计算机有认知能力。
对于这种反对意见,塞尔不想多费笔墨去回答,他的简单回应是:在“认知科学”中人们预先假定了人的心理的实在性和可知性,否则就失去了进行探究的基础。至于计算机,认知不可能仅仅是计算过程及其输出,因为在认知不存在的情况下,计算过程及其输出也可以存在。
说完塞尔对这些反驳的回应之后,接下来讨论一个问题:中文房间里的人在英文问答场合所具备的,而在中文问答场合所不具备的东西,是什么呢?不管这种东西是什么,我们能把它给予机器吗?
塞尔认为我们是不可能把这种东西给予机器的,因为机器不具备产生这种东西的物质基础,其本身所进行的形式符号处理更产生不了这种东西。中文房间里的人之所以具有理解英文的能力和具有其他形式的意向性,是因为他是某种有机体,具有某种生物化学结构,在一定条件下,这个结构能以因果的方式产生感知、理解、行动以及其他意向性现象。只有具有这些因果能力的东西,才可能具有意向性。仅有纯形式程序的机器,因为形式特性自身不能构成意向性,它们自身也没有因果能力,它们的能力只是随着机器运行而产生下一步的形式体系,所以并不足以凭借其自身产生意向性。
支持强人工智能的立场实际上预设了一个二元论的强版本。强人工智能的支持者相信可以在计算机上通过编写和运行程序来再现和解释心灵,这样心灵就不再是独属于大脑的产物,而是可以由其它物质结构产生。这就意味着他们相信心灵既在概念上、也在经验上可以与大脑相分离。他们的这种观点值得怀疑,“心灵之于大脑,犹如程序之于硬件”这个等式,是不能成立的。因为程序是独立于任何硬件材料的,而心灵不能脱离大脑那样的生物化学特性;程序是纯形式的,心灵却不是形式的。大脑和计算机之间不可能建立起这样的类比关系。
“机器能够思维吗?”对于这个问题,塞尔的观点是,只有一些类型非常特殊的机器,即大脑和那些与大脑具有相同因果能力的机器,能够思维。这就同只有叶绿素和其他光合色素能完成光合作用有相似之处。意向性是一种生物现象,它很可能像泌乳、光合作用或任何其他生物现象一样,与生成它的特定生物化学特性具有因果相关性。谁都知道,对泌乳和光合作用的反应过程的计算机模拟无法得到牛奶和糖类。用计算机来产生心灵,就是一种对人类心灵的模拟,而模拟不会真的产生心灵,模拟和复制不能混为一谈。
中文房间思想实验自40多年前被提出后,一直受到很多人的关注和讨论。有些人喜欢中文房间思想实验设计的巧妙和哲学论证的力量,并对其论证的观点给予不同程度的支持;有些人认为这个思想实验离驳倒图灵测试所代表的行为主义或功能主义的最终目的还有一点距离;还有些人则并不认可这个思想实验及其背后的主张。那么你是怎么认为的?