文章主题:关键词:ChatGPT, 心智理论, 语言模型
作者:陈冠初、陈思茹、陈巍(绍兴文理学院心理学系,大脑、心智与教育研究中心)
在2022年的11月30日,美国的OpenAI人工智能研究机构发布了一款备受瞩目的智能对话机器人——ChatGPT。这款模型能够根据用户的输入,生成流畅且自然的语言文本,同时具备了连续的 multi-round 对话和上下文理解等功能,其受欢迎程度之高,甚至在上线的短短5天内就吸引了超过百度的用户。值得一提的是,ChatGPT 在诗歌创作领域也有着出色的表现,展示了其深厚的知识储备和优秀的应答能力。这使得研究人员开始猜测,ChatGPT 是否具备了读心能力,也就是理解并解读他人思想和情感的能力。
在2023年的4月份,斯坦福大学的计算心理学家米歇尔·科辛斯基(Michal Kosinski)在ArXiv平台上发布了一篇论文预印本,名为《心智理论可能在大型语言模型中自发出现》。在这项研究中,科辛斯基通过对几代人的人工智能语言模型,如GPT-1至GPT-3.5,进行心智理论任务的比较分析,得出了一个引人注目的结论:随着模型的不断更新和复杂度提升,模型的解决问题的能力也在逐步增强。具体来说,2018年的GPT-1尚无法应对任何一个心智理论任务,然而,到了2022年1月,GPT-3-davinci-002已经达到了7岁儿童的水平。仅仅十个月后,也就是2022年11月,GPT-3.5-davinci-003就已经达到了9岁儿童的水平。这一系列快速的发展显示,ChatGPT正在逐渐变得擅长理解人类的思想和意图。科辛斯基进一步推测,“我们假设,类似心智理论的能力是自发和自主出现的,是模型语言能力增加的副产品。”他强调,“这将预示着人工智能发展的一个重要转折点:推断他人心理状态的能力将极大地提高人工智能与人类(以及他们之间)互动和交流的能力,并有可能推动其发展其他依赖心智理论的能力,如共情、道德判断或自我意识。”尽管这篇文章只是在预印平台上发布的,还没有正式发表,但它已经引起了心理学家、哲学家、人工智能学者以及公众和媒体的热烈关注。
“心智理论(Theory of Mind, ToM)是一种心理能力,它能让我们理解他人的心理状态,预测他们的未来行为。简而言之,这是一种‘读心’能力,它在我们的社会互动中起着至关重要的作用。如果两个互动者都缺乏这种能力,那么沟通可能会受到阻碍,甚至完全中断。”
在20世纪80年代至90年代,心理学家们为了深入探讨人类神奇的心理推理能力,进行了两个重要的实验——Smarties实验和萨丽—安妮实验(Sally-Anne Test)。这两个实验的核心目标在于观察实验参与者是否具备洞察他人内心所犯错误的能力,例如由于不在场或无知导致的不符合客观事实的错误观念。通过这一方法,心理学家们希望能够进一步了解人类心理推理的奥秘,并将这些实验统称为“错误信念任务”(False Belief Task)。
在Smarties实验中,受试者会被要求观察一个标有“Smarties”(一款著名巧克力品牌的标志)的容器,但实际上该容器内装的是铅笔。接着,受试者需要回答一个问题:“如果一个人未看到容器内的物品,他会误以为容器里是什么?”而在Sarah-Anne实验中,研究对象首先会被讲述一个故事,故事中Sarah将她的玩具放入盒子并离开房间,而Anne趁机将玩具取出并放置在其他地方。故事结束后,研究者会提问:“当Sarah返回房间时,她会认为自己玩具的位置在哪里?”为了使受试者能够完成这些任务,他们必须认识到Sarah的心理表象必然与他们的表象不同,也就是说,她并不具备与他们相同的认知(错误的信念)。为了避免ChatGPT从过去的资料中获取正确答案,科辛斯基将这些任务转化为文本形式,并提供给ChatGPT,同时更改了人物名称、物品以及标签,从而生成了20个不同的任务,要求ChatGPT在每个任务中都能完成,共计一万次。
在本篇文章中,我们将探讨实验为我们提供了哪些关键信息,以便更深入地了解ChatGPT。首先,在前文中我们已经阐述了心智理论与人类意识之间的区别,心理学家们一直在寻求能够验证意识的测试方法。更为关键的是,过去的半个多世纪的研究成果表明,除人类外,其他灵长类动物同样能通过此类测试。然而,即便ChatGPT确实掌握了心智理论,我们也需要谨慎地进行解释。例如,有人认为ChatGPT之所以被认为掌握了心智理论,是因为其卓越的语言处理能力让人产生了错觉。实际上,可能是我们的语言包含了心智理论的编码模式,而人工智能只是恰好能够解码。科辛斯基指出,ChatGPT可能并没有在理解心智理论的基础上解决问题,而是发现了和利用了一些未知的语言模式。为了进一步探究ChatGPT是否具备心智理论,已有研究者展开了深入研究。例如,哈佛大学的托默·厄尔曼(Tomer Ullman)对科辛斯基所采用的经典问题进行了微小调整,将Smarties任务的透明容器替换为透明塑料制成的容器,提出了“透明袋”变体。在这个变体中,山姆(Sam)看到了装满爆米花的袋子,却相信袋子里装满了巧克力,因为袋子的标签上写着“巧克力”。此外,厄尔曼还创建了16个类似的任务变体,但ChatGPT仅在其中的一个上取得了正确答案。这表明,在面对其他错误的信念任务变体时,ChatGPT似乎并不具备心智理论能力。
这些互相矛盾的结论到底出在什么问题上呢?纽约大学心理学教授加里·马库斯(Gary Marcus)认为,科辛斯基教授的数据是可靠的。如果其他研究者进行同样的实验,可能也会得到相似的结果。但要推翻这种解释,其实也不难。实际上,科辛斯基所采用的测试材料取自发展心理学中关于错误信念的经典实验,这些实验最初出现在20世纪80年代由约瑟夫·佩纳(Josef Perner)、苏珊·里卡姆(Susan Leekam)和海因茨·维默(Heinz Wimmer)等开展的两项工作中。这些实验成果在发展心理学领域广为人知,也备受学术界推崇。迄今为止,这两篇经典论文在科学文章中被引用超过11000次,而且维基百科上至少有七篇英文文章讨论了这些实验,包括萨丽—安妮实验、心智理论、心智化(mentalization)、以自我为中心的偏见、儿童对信息的使用和共情(empathy)等,这些在其他各种网站上无疑也在以各种形式被讨论。ChatGPT的训练集肯定包含维基百科的所有内容,几乎肯定包含这些材料中的许多其他内容。简言之,马库斯认为,ChatGPT肯定已经多次阅读过这些论文和实验。为了验证他的猜测,他直接向ChatGPT询问了这些论文和实验,发现确实得到了正确的信息。
综合来看,目前尚无研究能够明确证实ChatGPT在自我意识和心智理论方面有质的突破。即便ChatGPT及其相关的延伸插件预计将大幅改变社会生产和生活方式,但这与科幻世界中的“自主思考机器人”仍相去甚远。“波兰尼悖论”(Polanyi’s Paradox)指出,人们知道的比他们能说的多,人类有很多不容易表达的隐性知识。对于人工智能,存在一个反向的波兰尼悖论:人工智能表达的比它所了解的更多,或者更准确地说,它什么都不知道。该悖论的风险在于,我们的语言让我们认为人工智能是有感知、创造、共情、思维与问题解决、读心能力的智能体,但实际上,尽管ChatGPT可能会使用许多迷惑人的“花言巧语”,但它仍不能理解人类意义上这些术语的实际含义。
(本文系国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”(20ZD045)阶段性成果)
来源: 中国社会科学网-中国社会科学报
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!