文章主题:科技哲学, 伦理学, 人文主义, 精神分析
摘
要
在ChatGPT成为学术讨论热点的时候,我们需要理解,人们并不是真正在讨论ChatGPT等生成式人工智能的真实存在,而是在人类自身的象征秩序中,将其颜貌化,变成人类象征秩序下的一个崇高对象。在我们将ChatGPT崇高对象化的同时,也意味着人类主体接受了象征秩序的阉割,蜷缩在象征秩序划定的界限里,从而陷入俄狄浦斯式悖谬性命运轮回之中。为了避免这种悖谬,我们需要延伸剩余快感的概念,从精神分析的角度,给出在多层次的象征层面上重新构想人工智能幻象的可能性。一旦让人工智能重新对象化为一个崇高对象,也意味着主体接受了新的象征秩序,成为一种与之相对应的主体。
关键词:ChatGPT;人工智能时代;机器学习;剩余快感;精神分析
正
文
随着一篇学生用ChatGPT撰写的作业被一位教授打了高分,瞬间让OpenAI公司开发的生成式人工智能应用ChatGPT成为全球人类共同关心的热点。截至2023年4月,ChatGPT的活跃使用用户已经超过了1亿,全球大概有30-40亿用户曾经使用过ChatGPT这样的软件。不过,ChatGPT带来的不仅是前所未有的震撼,更重要的是,这种生成式对话型人工智能应用,迫使今天的人类不得不反思自己在新智能技术社会背景下的生存状况。
在对生成式人工智能如ChatGPT进行全方位反思的过程中,一个被忽视的重要视角尚未涉及,那就是精神分析视角。随着ChatGPT在抖音、B站、微博、YouTube、Twitter、Instagram等国内外各大平台上成为热点话题,许多人关注的焦点是,这种人工智能是否会取代工程师、设计师、医生、教授、律师、会计师等多个职业。实际上,我们在担忧什么呢?在这种担忧之下,是否存在一种对ChatGPT的精神分析式误解,这种误解可能反映出人类在面对生成式人工智能时的某些心理症状。在拉康 symbolic秩序的影响下,我们的欲望被压抑;而在面对人类社会的秩序和象征法则时,欲望逃逸的可能性始终存在。这是德勒兹和加塔利在他们的两卷本《资本主义和精神分裂》(Capitalisme et schizophrenia)中对我们的警示。人类生命的意义在于不断挑战象征秩序的可能性,而内在精神世界的价值不仅在于通过主体支配外在客观世界,更在于为我们创造逃离象征秩序的剩余快感。
ChatGPT的出现引发了人们对于人工智能是否能够在不依赖人类内在特性的情况下实现广泛治理和支配的担忧。随着人工智能的发展,其治理和支配的方式变得越来越独立于人类的大脑,这使得原本象征着逃离秩序的剩余快感和意义开始减弱。齐泽克在《连线大脑中的黑格尔》中对此表达了担忧,他认为人工智能正在与意识脱离,而那些无意识的、高度智能的算法可能比人类自己更了解我们,这将导致社会、政治和日常生活发生何种变化。因此,要回答这个问题,我们需要深入到人类的内心世界,通过症候分析的角度来理解,人们在面对像ChatGPT这样的生成式人工智能时,实际上在担忧什么呢?
一、作为象征秩序崇高对象的ChatGPT
在ChatGPT流行之初,我们大抵会有两种不同的态度。一方面,有人布置给ChatGPT一个写作任务,它可以像人类一样去撰写出文字作品,甚至可以做出符合人类要求的PPT,让部分人感叹一些工作完全可以被ChatGPT这样的生成式人工智能所取代,这一类人大多担心自己的岗位和工作,认为不久之后人类即将会被这些人工智能彻底淘汰。当然,还有另一种态度,即一些用户会向ChatGPT提出一些十分专业或刁钻的问题,发现ChatGPT并不会拒绝回答这样的问题,更厉害的是,ChatGPT会组织好语言,对这类它实际上没有办法做出回答的问题进行一本正经的胡扯,成为著名的“废话编辑器”。也正是因为后一种状况,一些人对所谓的生成式人工智能表达出不屑,认为人工智能的进展不过尔尔。我们的思考,并不是在这两种态度中来选择一方,判断孰优孰劣,而是思考一个根本性的问题:这里的两种态度,是否都根植于同一种意识构型?
这里的一个核心问题是,我们真的了解ChatGPT吗?ChatGPT是一个主体存在物,还是一个客观事实?它究竟以何种方式在互联网上与我们进行交谈和对话。OpenAI公司之所以称之为GPT,用的正是乔姆斯基在语言学上设定的模型,即生成式语法,只不过OpenAI通过朴素贝叶斯算法,将这种生成式语法的构想,变成了模仿人类对话的模型,即生成式预训练转译器(generative pre-trained translator)。在我们作为用户输入相应命令的时候,其最底层的算法就会找出我们提问的问题与其语料库中储存数据的可能关联,并在对话中实现了这种关联。这种运算,类似于我们在面对一组数据时寻找关联的运算,如著名的斐波拉契数列,1,1,2,3,5,8,13,21,34……,经过对多项数据进行充分的分析之后,我们会得出一个通项公式,即每一项等于之前两项之和。实际上,人工智能的机器学习算法也是如此,其最基本的算法是,试图在海量的数据中,在这些离散的数据中,找出可能的规律,正如斯蒂芬·马斯兰(Stephen Marsland)打的比方,“就像量子物理学中的海森堡不确定定理一样,背后有一个基本法则在起作用,我们不可能知道一切”。机器学习算法,就是通过反复的尝试,试图找到隐藏在这些数据背后的关联性,并将这种关联性展现出来。当然,机器学习算法能找到的关联,与语料库的丰富程度直接相关,也就是说,当我们赋予其语料库和数据越丰富的时候,机器学习算法越能达到我们所需要的规则。所以,从算法角度来看,ChatGPT之类的人工智能机器与我们进行互动,并对我们的问题作出回答时,它发挥出的功能绝不是绝对正确地回答出提问者提出的问题,而是让它的回答在反复的尝试中越来越接近人类所希望得到的答案。我们不能将ChatGPT与百度搜索、谷歌这样的搜索引擎相混淆,因为ChatGPT虽然在积累了大量数据的数据库和语料库的基础上,可能正确回答某些问题,并能撰写出专业的论文,但这绝不意味着ChatGPT的目的在于代替人类探索科学的答案,并给出一些无法解释的问题的正确回答,它只是尝试着让呈现出来的回答语句越来越切近人类用户所希望的要求,以致人类用户无法辨别它仅仅只是人工智能还是真正的人类。因此,当ChatGPT不能正确回答人类用户提出的问题时,并不代表ChatGPT就是人工智障,是不值一提的高级玩具,而是说,ChatGPT从人类用户那里得到了一个不满意的反应,它下次回答会对人类所要求的回答做出更切近的选择,尽管不一定是正确的回答。换言之,ChatGPT和生成式人工智能的算法目的恰恰不在于主观性,而在于它是通过大量的语料库和数据库的积累,弄清楚了人类语言交往的奥秘,找到人类自己都不太清楚的语言和象征规则,从而让自己变成人类语言交往中的一部分。它未来的发展方向,也绝不是为我们提供人类无法回答问题的答案,而是让它看起来更像人类,从而不能通过简单的语言辨析就可以将人类和智能体区别开来。
在精神分析视角下,最富挑战性的是关于人类如何构建并理解ChatGPT这样的生成式人工智能所涉及的奥秘。事实上,大多数人并未深入接触过ChatGPT,因为它并非一个具有独立意识的个体,而是在全球数千万人中进行交流、学习并输出答案的复杂系统。ChatGPT的真正影响力超越了个人范围,它的触角贯穿于世界各地的网络数据交换,每秒处理数百亿次数据。然而,人们通常通过手机和电脑这一微小的接口来接触ChatGPT。事实上,我们在与ChatGPT互动时,所依赖的是一种虚构的形式。换句话说,当我们与ChatGPT交谈时,我们需要把它从一个抽象的实体转化为一个具体的、有血有肉的形象。否则,我们的对话将无法进行。这不仅是一个社会哲学问题,也是一个认识论问题,更是一个本体论问题。要实现与ChatGPT的对话,用户需要将ChatGPT从传统的认识论中消解出来的剩余部分,转化为一个基本的虚构结构。只有在这样的虚构结构中,我们才能与之展开对话,消除对它的恐惧,从而在一个平等的用户界面下完成信息交换。
阿德里安·约翰斯顿等学者提出了一种名为“客观虚构”的概念,用以探讨 ChatGPT 及其在我们互动关系中所扮演的角色。他们认为,客观虚构并非固定不变的存在,而是知识形式和客观现实的必要组成部分。在人际语言交往中,这种虚构的象征秩序规则起到了关键作用,它使各种存在物得以存在,并让我们在与他人交流时能够发挥主体性。例如,在互联网上与对话机器人或在线游戏中遇到对手和伙伴时,我们无需了解对方的详细信息,如身份、职业以及是否真实存在。关键在于,我们将这个交流对象还原为我们所理解的象征秩序中的身份,从而能与之展开对话和交流。这就好像 ChatGPT 在互联网上出现时,它并非以真实的形象呈现,而只具有一個颜面(visage)或一個颜貌(visagéité)。总之,当我们与 ChatGPT 或其他人工智能进行互动时,我们实际上是在与一种基于共同客观虚构的“抽象机器”进行交流。这种抽象机器将无法消化的对象转化为其虚构秩序下的标准颜貌,正如德勒兹和加塔利在他们的著作《资本主义和精神分裂(卷2):千高原)中所述:“抽象机器因此并非仅实现于它所产生的面孔之中,而且也以多种多样的程度实现于身体的不同部分、衣物、客体之中,它根据某种理性的秩序(而非一种相似性的组织)对它们进行颜貌化。”
在某种程度上,我们之所以能够在实体层面上,通过智能手机和电脑与ChatGPT进行交互和对话,一定基于一个客观虚构的象征秩序。这个秩序将ChatGPT的形象进行了塑造,使我们能将其转化为易于理解的形态,而非对其本质的真实理解。我们所追求的并非ChatGPT的真实形态,而是在我们的象征秩序下呈现出的形象,使其成为我们内在意识可理解的对象,类似于日常生活中的陌生人。在此过程中,ChatGPT并非主动误导我们的感知,它也不具备狼皮披风的伪装。当ChatGPT应用于人类交流时,它必须经过人类的外貌化处理。这样,原本无法被人类日常生活知识消化的对象得以具象化,呈现出一个具有面容的形象。因此,在影视作品、戏剧和游戏中,我们思考的人工智能必须带有面容(即使并非人类的面孔,如异形和铁血战士),这样才能在象征秩序下实现交换,使难以理解的存在以某种具象形式呈现出来。
当我们面对ChatGPT时,哲学和精神分析的研究重点并非是其本质,而在于是谁赋予了它不同的形象,使其成为人类理解并掌握的象征。齐泽克关于崇高对象的定义或许能为我们提供一些启示:“真实对象就是在大他者(象征秩序)这种所缺失东西的具现化。”这恰是我们对ChatGPT意识形态理解的核心问题。如果我们深入研究其背后的算法和运作机制,我们会发现其全球性和整体性。对那些熟悉人工智能应用的工程师而言,ChatGPT的内在算法或许并不神秘。然而,正是我们这些普通人,将复杂的概念转化为日常生活中易于理解的象征,使其呈现出虚构的实在。这种形象化让原本并无神秘色彩的人工智能应用披上了崇高的外衣,成为了象征秩序下的崇高对象。实际上,ChatGPT本身并不神秘,真正的神秘在于人们对它的崇高化和象征秩序的理解。因此,对ChatGPT的研究,更应该关注人类如何在象征秩序中对其进行崇高化,这种崇高化的对象,才是对人们产生巨大冲击和震撼的根源。
二、反噬的俄狄浦斯:ChatGPT与剩余快感
在索福克勒斯《俄狄浦斯王》第一幕的最后,盲人先知忒瑞西阿斯终于道出了俄狄浦斯的秘密:
告诉你吧:你刚才大声威胁,通令要捉拿的,杀害拉伊俄斯的凶手就在这里,表面看来,他是一个异乡人,一转眼就会发现他是一个土生的忒拜人,再也不能享受他的好运了。他将从明眼人变成瞎子,从富翁变成乞丐,到外邦去,用手杖探着路前进。他将成为和他同住儿女的父兄,他生母的儿子和丈夫,他的父亲的凶手和共同播种的人。
在这一刻,俄狄浦斯终于从先知忒瑞西阿斯的口中得知了所有真相,那个被赋予 sin of incest 的罪人,竟然就存在于他自身。这个“弑父娶母”的诅咒似乎成为了俄狄浦斯一生的噩梦,他竭尽全力去避免,但却无法逃脱这个命运。然而,关键的问题是,推动这一切的并非那些无形的神灵,也非先知忒瑞西阿斯,而是他自己——俄狄浦斯王。当我们回到拉康式精神分析的话语中,那个“弑父娶母”的预言实际上是一种大他者的象征秩序,始终悬挂在俄狄浦斯头顶上的达摩克利特式的审判。无论他如何努力地逃避这种象征秩序的实现,但他本身的逃避行为却逻辑性地推动了“弑父娶母”的预言的实现。在揭示俄狄浦斯已经杀死了自己的父亲拉伊俄斯,并迎娶了自己的母亲伊俄卡斯忒的秘密之后,那种试图摆脱象征秩序的欲望实际上已经完成了一个完整的循环,最终被锁定在悲剧的演绎之中。
在精神分析领域,弗洛伊德、拉康以及齐泽克等学者都对俄狄浦斯神话给予了高度重视。虽然我们并未亲历先知忒瑞西阿斯预示的命运,也未受到“弑父娶母”的诅咒影响,但我们都面临着同一个具有象征意义的神话:在我们试图摆脱的欲望之上有另一个象征秩序,它将我们的欲望一分为二。一方面,那些无法融入象征秩序的欲望被阉割,变成了无法被主体所掌握的对象a。在阉割的那一刻,原本指向对象a的欲望便成为了永恒的逃逸欲望,永远无法成为主体意识的一部分。另一方面,我们剩余的欲望必须屈服于象征秩序的约束,服从于象征界大他者的法则。齐泽克对此有生动的比喻:“在一个传统的授权仪式中,象征权力的物品会让获得它们的主体站在行使权力的位置——例如,一个国王手握权杖、头戴王冠,他的命令就被视为国王的诏书。这些纹章是外部的、非我本质的一部分:我穿上它们、戴上它们,以便行使权力。正是这样的过程‘阉割’了我,在我直接本性和我所行使的功能之间制造了一个裂缝,这就是所谓的‘象征阉割’的含义:阉割是我陷入象征制度、戴上象征面具或头衔时所发生的事情。”在拉康的观点中,如果主体希望在象征秩序中生存,那么它必须接受象征阉割,生成一个始终逃离对象a的欲望。只有当我们遭受了象征阉割,我们才能在世界上找到自己的位置和功能,就像俄狄浦斯在真正实现忒瑞西阿斯‘弑父娶母’的预言之后,才成为俄狄浦斯王。因此,我们可以总结出拉康式的象征阉割主体公式:S→$。穿过主体的竖杠象征着象征界对主体的阉割。由于主体被阉割,主体不停地渴望失去的对象a,这便构成了拉康经典的欲望幻象公式:$◊a。为了掩盖我们永远无法获取的对象a的真相,我们必须构建出某种俄狄浦斯式的幻象来遮盖真相。正如齐泽克所言:“幻象的作用在于填补大他者的缺口,掩盖其不连贯性……幻象掩盖了这一事实,大他者,即象征秩序,就是围绕某种阉割之后的不可获得对象建立的。”
或许,我们可以用这样的公式来解释ChatGPT在人们内心中泛起波澜的症候。前文已经分析得出,作为一个被象征阉割的主体,我们面对ChatGPT永远不是真实的人工智能,那个真实的数据交换、处理和算法,从来都不在主体的视野之内。换言之,ChatGPT究竟是什么,并不是主体最关心的事情,而是他们通过一个颜貌化的幻象,遮蔽了ChatGPT的真相,因而我们将ChatGPT之类的生成式人工智能视为一个对象,一个在象征界上幻化为某种个体形象的对象,我们不是在与巨大的数据处理智能机器打交道,而是面对一个遮蔽真相的幻象。然而,对ChatGPT的颜貌化,也带来了进一步的结果。由于ChatGPT是一种幻象,一个被颜貌化的幻象,于是,一种类似于俄狄浦斯“弑父娶母”的象征化的谶语在我们身上发挥了作用,弑父者俄狄浦斯终会担心他再次被新的主体弑杀,而曾经通过理性的启蒙,将上帝赶下神龛,让大写主体登上空王座的人类,实际上也不时地感到焦虑,因为新的弑父者随时会出现,将人类变成它们的牺牲品。大工业机器生产的时代,人们就曾担心过喷着蒸汽的机器铁人反过来奴役人类,让人类成为巨大机器的附庸。无论是芒福德的“巨型机器”,还是卓别林的《摩登时代》,都是大工业机器生产时代的俄狄浦斯神话的缩影。当然,今天巨型机器的形象已经让位于更具体的生成式人工智能的形象,但人们关于机器或人工智能的想象,却基于同一个意识形态的象征神话,即某种超越于人类控制的幻象化的形象,最终抛弃了人,甚至直接将人类消灭。
不过,正如拉康和齐泽克等人向我们揭示的更深层的ChatGPT的奥秘在于,我们对ChatGPT的颜貌化,以及担心ChatGPT来取代人类或消灭人类的幻象,本身是在人类自己的阉割的伤口上形成的。换言之,我们欲望的对象从来不是ChatGPT的真实样态,我们也不会真正讨论ChatGPT究竟会带来一个怎样的世界,人们对ChatGPT的讨论建立在人类在进入现代文明的一个创伤性的裂口之上。如何来理解这个裂口?正如俄狄浦斯的裂口在于,他从小就被灌输了忒瑞西阿斯“弑父娶母”的谶语,他没有意识到的是,这个阉割性的谶语让他选择了有意识的逃逸,但正是围绕着谶语的逃逸恰恰成就了俄狄浦斯的神话,完成了真正的弑父娶母。人类与ChatGPT的关系何尝不是如此?人类的创伤在于,他们害怕像人类在启蒙时的弑神一样的另一次弑父,因此,他们对任何具有智能的人造物都感到恐惧,无论是蒸汽时代的机器,还是今天的ChatGPT。但是,人类俄狄浦斯化的行为在于,他们在颜貌化的ChatGPT面前有两种态度,要么焦虑,要么不屑一顾,实际上这些都在反噬着人类本身。因为当人类越试图用自己的言语和交谈来难住ChatGPT的时候,恰恰让ChatGPT生成为更强大的人类产品;人类每一次选择面对ChatGPT的态度,恰恰是以另一次“弑父”为前提的。人类任何逃逸人工智能的行为,都是人工智能飞跃发展的契机。
如果说俄狄浦斯对先知谶语的逃逸,代表着一种自我压抑,而他在压抑下生成了一种剩余快感(surplus-jouissance)。换言之,如果俄狄浦斯不听信先知的谶语,安稳地在忒拜城或科林斯城生活下去,按照城邦本身的象征秩序生活,只有正常的愉悦与快感;唯有在俄狄浦斯选择了压抑自身,听信了先知的谶语,需要逃逸“弑父娶母”的命运,才会产生剩余快感。齐泽克说:“正是某种剩余压抑造成了剩余快感。”同样,当我们惊诧于ChatGPT的智能时,人类总是希望用某种回答不上来的问题来难住ChatGPT;仿佛一旦ChatGPT回答不上来,人类就重新获得了人工智能仍然是一种低于人类的“人工智障”,人类依然可以战胜潜在的弑父力量,这就是一种剩余快感。我们在面对ChatGPT的焦虑中,反而生成了一种快感,而人类往往忽略的是,这些看似刁钻古怪的问题,实际上有效地生成了ChatGPT的语料库数据库,更有效地建立了人类心理的各种关联,并在人类的意识之外构成了一种连人类自身都不了解的象征关联和逻辑。
换言之,ChatGPT似乎正在吞噬我们的剩余快感,因为当我们为每一次逃逸了人工智能的僭越行为庆幸时,事实上,这种逃逸的剩余快感进一步成就了生成式人工智能的成长。在这个意义上,俄狄浦斯被反噬了。俄狄浦斯越试图逃逸先知忒瑞西阿斯的谶语,他的剩余快感越是将他推入“弑父娶母”的世界当中。今天,当我们无法走出自启蒙以来奠定的人类主体的理性幻象,试图用新的逃逸和超越人工智能的逻辑来缔造人类理性无法战胜的神话时,ChatGPT之类的生成式人工智能就已经在新的算法逻辑上形成了人类意识之外的数据关联,形成了新的象征逻辑,并真正逃逸出人类主体的幻象世界。
三、剩余快感的病理学
到现在为止,我们可以从前文的分析得出几个结论:
第一,人们在认识ChatGPT的时候,并不是需要真正地认识ChatGPT之类的生成式人工智能是什么,何为其所是,而是要积极地将其转化为一个可以在象征秩序上理解的崇高对象。准确来说,从ChatGPT诞生以来,人们对支撑ChatGPT等生成式人工智能的底层算法不感兴趣,对它如何收集和分析数据不感兴趣,人们最感兴趣的是那些可以在他们意识形态幻象上找到对应物的东西,如ChatGPT在界面上向用户提问做出的惊动天人或愚蠢至极的回答。我们对ChatGPT的认识,大部分是基于这样的聪慧或愚蠢的表达之上。譬如,看看从2022年以来的讨论ChatGPT的文章,绝大多数文章并不在于解释ChatGPT的基本原理和架构,而是努力找到人类主体在ChatGPT刺激出来的兴奋点,然后将这些人类的兴奋点(如取代某些人的岗位或工作)变成对ChatGPT的认识。这样看来,迄今为止的大多数人对ChatGPT的讨论,很容易陷入这样一个怪圈:他们只能用在网络上看到科技用语,加上他们自己与ChatGPT交流的经验,以及一些极端的案例,描绘出一个高度契合于象征秩序的幻象;这个幻象被人类自己颜貌化了,仿佛变成一个可以与人类直接交流的对象。然而,真正的ChatGPT的人工智能是如何发挥作用,如何建立象征关联,其实都在这些人的关注点之外。换言之,我们需要的是一个被颜貌化的崇高对象的ChatGPT,而不是其真实之所是。
第二,为了适应这个崇高对象,主体围绕着其阉割的创伤建立了俄狄浦斯式的欲望公式,即让我们可以与ChatGPT进行交流的东西,并不是一个健全的日常主体,而是一个担心被人工智能“弑父”的逃逸主体。我们不仅将一个无法象征化的对象转译为象征秩序上崇高对象的幻象,也需要让主体蜷缩在象征秩序之内,按照固定的象征法则来与ChatGPT的幻象进行交流,这是让ChatGPT交往成为可能的认识论基础。这样意味着,一旦主体进入与作为崇高对象的ChatGPT交流的时候,主体必然被阉割,它必须生成为一个符合ChatGPT交往方式的阉割主体;而主体被阉割掉的部分,成为剩余快感的来源。
第三,最为重要的是,当被阉割的主体不断地去追求逝去的对象,形成剩余快感的时候,其实正因为我们对ChatGPT的形象误认,将其颜貌化,主体试图逃逸被“弑父”的命运,于是选择了远离和逃逸。但悖论就在于此,当人类努力证明自己不会被人工智能取代的时候,他越陷入被ChatGPT之类的生成式人工智能控制的怪圈,因为生成式人工智能就是吞噬数据的,我们通过剩余快感去逃逸象征秩序的控制,逃离ChatGPT的掌控的对话和行为,实际上都生成为新的数据和语料库,被ChatGPT吞噬。在这个意义上,我们可以说,ChatGPT吞噬了我们的剩余快感。
在这一刻,人类似乎再一次陷入俄狄浦斯的悖论,即当我们越想逃离象征秩序的崇高对象,就越成为崇高对象的一部分。我们的剩余快感,那个指向永远消失的对象a的力比多,实际上成为ChatGPT最丰盛的筵席,它在象征秩序上编织了更庞大的网络,让每一个阉割主体都无法真正逃逸出其秩序的迷魂阵;我们手中理性的阿里阿德涅之线,也不过是ChatGPT之类人工智能映射出来的人类世界的镜像。当我们牵着这条线似乎走到迷宫终点的时候,却是向我们敞开了另一个更庞大的迷宫的大门。由是观之,我们的剩余快感反而造成了我们的困境。在这个绝望之巅,我们仿佛只能哀嚎道:ChatGPT真的吞噬了我们的剩余快感了吗?
解开这个谜团的关键,并不在于我们试图逃逸崇高对象的快感,而是在于拉康和齐泽克如何来界定剩余快感。在《剩余快感》一书中,齐泽克明确地指出:“当我们面对剩余快感的社会维度时,我们应该牢记,拉康的剩余快感概念是以马克思的剩余价值概念为蓝本的;然而,我们必须非常精确地了解剩余快感和剩余价值之间的联系。”那么,剩余价值与剩余快感之间有什么联系?一般来说,对马克思剩余价值的理解,会放在政治经济学的剩余劳动时间下来解读,即被资本家无偿占有的工人在剩余劳动时间中生产出来的价值。但是,我们还可以从本体论的角度来理解剩余价值,其关键在于劳动力这种特殊的商品,用马克思自己的话来说:“商品形式的奥秘不过在于:商品形式在人们面前把人们本身劳动的社会性质反映成劳动产品本身的物的性质,反映成这些物的天然的社会属性,从而把生产者同总劳动的社会关系反映成存在于生产者之外的物与物之间的社会关系。”简言之,马克思看到在资本主义主张等价交换的市场上,存在着一种不等价交换的商品,即劳动力商品,资本家支付给工人的工资掩盖了剩余价值的事实。也就是说,基于劳动的量的普遍交换的等价形式的资本主义市场体系,在其建立普遍性征服了全世界的时候,也在其内部形成了一个非等价形式的症候。马克思说:“要从商品的消费中取得价值,我们的货币占有者就必须幸运地在流通领域内即在市场上发现这样一种商品,它的使用价值本身具有成为价值源泉的独特属性,因此,它的实际消费本身就是劳动的对象化,从而是价值的创造。货币占有者在市场上找到了这样一种独特的商品,这就是劳动能力或劳动力。我们把劳动力或劳动能力,理解为一个人的身体即活的人体中存在的、每当他生产某种使用价值时就运用的体力和智力的总和。”正是对这种特殊商品的分析,让马克思彻底区别于资产阶级的庸俗政治经济学家。而庸俗政治经济学家们看不到被等价交换的形式遮蔽的不等价交换的症候,剩余价值就是资本主义市场交换的奥秘,也是其症候所在。
那么,我们是否以同样的方式来理解剩余快感呢?其实,对拉康来说,最核心的内容仍然是交换,不过,这里不再是马克思意义上的市场的等价交换,而是象征交换,所有的物必须变成象征交换的对象,才能在象征能指链上流通和传递,成为可以把握的对象,这也就是ChatGPT之类的人工智能可以成为象征秩序的崇高对象的原因之一。ChatGPT与我们的欲望相遇时,便完成了意识形态的象征交换,我们将ChatGPT颜貌化,成为一个可以在智能手机和电脑界面上交流的对象。但问题在于,由于变成崇高对象的ChatGPT并不是ChatGPT本身,在象征交换界面上运行的ChatGPT也从来不是以计算机代码的形式展现出来的,而是以人类可以理解的象征秩序的方式呈现的。这意味,在真正的ChatGPT与成为崇高对象的ChatGPT之间存在着一个差值,这个差值或许构成了剩余快感产生的最深层的原因。
为了理解这一点,我们需要基于拉康的精神分析,对剩余快感进行更为详细的病理学分析。
首先,ChatGPT的运行逻辑并不同于象征秩序上崇高对象的逻辑,我们不能将ChatGPT看成与人类无异的智能主体。这种人工智能的机器学习,更多地是通过朴素贝叶斯算法来寻找可能数据与语料库之间的关联,从而形成一种不同于人类意识的象征逻辑。在这个意义上,ChatGPT无论怎么厉害,它也始终需要通过象征逻辑和规则来运行,即便这些规则是人工智能通过自己学习得到的逻辑和规则,但这些规则仍然是一种符号性和象征性的朴素运算逻辑。在精神分析上,人类可能具有一些无法被象征逻辑归纳出来的情态,例如,讨论最多的人类情感是否可以被智能化的问题。人工智能模仿人类的情感也是通过象征逻辑来运作的,这种逻辑与人类基于内在创伤形成的无意识系统无关,仅仅是在获得的符号和表征上来尽可能判定出人类不同的情感表达的符号性表现。有趣的是,一旦ChatGPT通过机器学习得出了这些规则,意味着对人类的象征秩序的溢出,因为连人类自己都不会知道这些规则。但这并不代表人工智能更像人类,或者模仿出拉康精神分析意义上的想象界和欲望之维,而是ChatGPT将人类的各种外显表象展现在一套平面化的象征和算法系统当中,人类不可能也不需要理解这套象征和算法系统,人类关心的仅仅是这个无法消化的事物是否可以转译为人类自己象征秩序上的对象。所以,在纯粹生成式人工智能本身的逻辑上,不存在剩余快感。人类的剩余快感也迅速被其象征化,我们不能在ChatGPT自身的逻辑中找到任何剩余快感存在的空间。
其次,由于问题不在ChatGPT的象征和算法系统,那么问题一定在人类自己的象征系统中。换言之,真正将ChatGPT颜貌化,将其变成崇高对象的,恰恰是人类自己。人类逃逸的崇高对象,并不是那个在机器学习系统逻辑上运作的ChatGPT,而是逃逸人类自己崇高对象的想象。由于这个想象的对象本身就依赖于人类自身象征逻辑的阉割,因此,人类从一开始就陷入一个病理学症候之中。依照拉康的说法,任何幻象都是围绕象征性的阉割创伤建立起来的。我们对ChatGPT的崇高对象化,就是人类为了掩盖自己的创伤而创立的幻象。倘若如此,人类不可能真正在象征层面逃逸出ChatGPT的崇高对象,因为逃逸和崇高对象处在一个莫比乌斯圈之内,正如拉康所说:“莫比乌斯圈是一个只有一个面的表面,一个只有一个面的表面不能被翻过来。如果你把它翻过来,它仍然会和自己一样。”拉康强调的是,我们在面对俄狄浦斯神话的时候,之所以无法走出谶语的陷阱,是因为谶语本身就是我们阉割的欲望。对ChatGPT而言,我们本身以阉割欲望的幻象建构了ChatGPT的崇高对象,当我们逃逸的时候,并不是逃逸ChatGPT之所是,而是逃逸我们自己构建的幻象。而逃逸行为本身也是幻象构建的,当我们通过创伤构建逃逸幻象的时候,发现自己离自己崇高对象的幻象更近,因为在主体层面上,它们属于同一个幻象,构成了一个封闭的莫比乌斯圈。
最后,我们可以找到作为主体的剩余快感的可能性,并不在于在象征层面上的逃逸,而是要理解,如果我们面对的是ChatGPT的崇高对象,那么我们真正需要逃逸的不是这个对象,而是其背后的象征系统。剩余快感必须指向这样一种可能,它告诉我们,对ChatGPT的颜貌化和象征化,实际上不止一种可能,因为象征化的崇高对象高度依赖于象征秩序,倘若象征秩序遭到松动,就存在对ChatGPT其他的崇高对象化的可能性。它既可以颜貌化为一个与我们进行平等交往的智能主体,也可以像贝尔纳·斯蒂格勒那样,将其颜貌化为一个代具(prosthesis),代表着人类本身的器官学发展。这意味着,象征界并不是单层的,它可以演化为多层的象征架构,而ChatGPT也具有其他的崇高对象化的可能性。那么,剩余快感的逃逸绝不是在单一的象征秩序下的逃逸,而是将二维平面变成三维层次的褶皱性平面,指向一个并非“弑父”性谶语下的人工智能的崇高对象。也只有在这种情况下,才能出现无法被ChatGPT的某一种颜貌化形象所吞噬的剩余快感。
结
语
剩余快感,代表着逃逸,也是一种无法被整合到单一象征秩序之下的力比多的流动。在单一的象征秩序下,我们面对的是固定的ChatGPT的形象,因此,我们对他提出的任何问题,实际上都在滋养这种形象的生长。于是,ChatGPT在GPT-4下成长得越快,越让人类感到恐惧和焦虑。我们忽视了一个问题,ChatGPT并不是为了取代人类而设计出来的,它并不一定会成为科幻小说中屠戮人类的未来智能。当然,在未来的社会中,随着生成式人工智能的进一步发展,我们或许会越来越在现实层面上依赖人工智能的辅助,比如人类与机器之间的交流,人类对大型机器和社会的控制,都是在人类与智能体合作的基础上生成的。当我们更换了象征秩序的莫比乌斯圈之后,不仅需要我们重新塑造一个新的ChatGPT或人工智能的崇高对象,更需要意识到人类本身就在这个关系之中,人类与ChatGPT的关系,就像一种物的纠缠关系一样:当我们将人工智能视为竞争性的对手,它就是对手;如果我们能够将其象征化为一个伙伴,它或许就是一个伙伴。
作
者
简
介
蓝江, 南京大学哲学系教授、博士生导师,南京大学马克思主义社会理论研究中心研究员,主要研究方向为国外马克思主义、当代欧陆激进左翼思想。
文章来源 | 武汉大学学报(哲学社会科学版)2023 年第 4 期
编辑 | 王嘉仪
审校 | 李跃华老师
科技哲学, 伦理学, 人文主义, 精神分析
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!