文章主题:科技, ChatGPT, 人工智能, OpenAI
近期,网络上最热门的科技词汇无疑是“ChatGPT”和“人工智能”。其中,OpenAI出品的智能对话机器人ChatGPT备受瞩目。它的功能非常强大,不仅能够回答人们提出的各类问题,还可以根据需求生成文章、翻译外语,甚至具备编写代码的能力。
ChatGPT 并非首个拥有这些功能的人工智能,但它所带来的变革却可能是质上的飞跃。相较于以往的人工智能,ChatGPT 的能力有了显著提升,不仅能够进行自然对话,而且所生成的文章质量也相当可观。因此,许多人预测,ChatGPT 预示着人工智能领域的一次重大突破。
一时间,许多研究者都开始关注ChatGPT,仔细研究它的各种能力。
在2月11日,斯坦福大学的计算机科学家米哈尔·科辛斯基(Michal Kosinski)发布了一篇题为《心智理论可能从大语言模型中自发涌现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)的论文预印本,这使得ChatGPT的热度进一步上升。
“大语言模型”这一概念,主要是指像ChatGPT那样的一类人工智能。科学家们通过心理学测试,发现在GPT-3.5版本的人工智能(目前市面上主流的ChatGPT源于GPT-3版本)中,已经初步形成了“心智理论”。仅仅几天时间,我国网络平台上便出现了诸多关于此的讨论和解读。有人认为,这个人工智能已经拥有了与九岁孩子相当的同理心;也有人表示,它已经具备了心智;甚至还有人认为,GPT-3.5版本的智力已经达到了与九岁孩子相当的程度……
在探讨“心智理论”、“同理心”、“心智”以及“智力”这些词汇时,我们可能会感到熟悉却又无法准确理解它们的具体含义。在这种情况下,比较GPT-3.5与九岁儿童的能力,并非易事。为了深入理解这个问题,我们需要进行一场词语意义的辨析,并阅读相关论文以了解其具体内容。
01
什么是心智理论?
对于许多人而言,首次接触到“心智理论”这个词汇时,可能会被其字面意义所迷惑。然而,我们需要明白的是,心智理论并非仅仅是一种理论,它实际上是一种心理能力。简而言之,它主要涉及到对他人的心理状态进行理解和推断的能力。举例来说,假设你在一周之前的朋友家中藏了一份礼物,并在他回家之后才被发现。那么,你会预测出他发现这份礼物时的情绪会有何反应吗?一般来说,人们往往会感到惊讶和欣喜。之所以能够产生这种预测,是因为你理解并掌握了他的心理状态,并且你认为,发现礼物会对他的内心产生积极的影响。因此,从上述例子中,我们可以清晰地看到,理解并推断他人的心理状态,实际上就是心智理论的核心所在。
一开始,有人可能会质疑,这不就是常规的正常思考方式吗?怎么还能算作一种技能呢?实际上,心理学家最早对此问题的探讨,并非针对人类展开的。1978年,心理学家Premark和Woodruff发布了一篇具有影响力的论文,题目为《黑猩猩是否拥有心智理论?》在这篇论文中,作者阐述了一种观点,即人类虽然无法直接洞察他人内心深处的想法,但却可以通过观察和分析他人的行为,去推测其意图、知识、信仰、思维方式、怀疑等。这实际上是人类的固有本能。那么,黑猩猩能否做到这一步呢?如果它们能够,这就意味着黑猩猩与人类一样,具备了推测他人内心的能力。心理学家通过研究发现,黑猩猩的确能够意识到他人的想法,这表明它们在一定程度上具备了心智理论。
这篇论文一经问世,便引发了众多学者的深思。他们纷纷质疑,心智理论是否是人类的天生本能?我们又是如何习得这一理论的呢?为了探寻心智理论的本质,心理学家们开展了一系列研究。最终,他们发现,人类并非是与生俱来就拥有心智理论的。在婴儿期,孩子们能够跟随他人切换注意力的目标,逐渐认识到他人存在独立的想法。随着认知能力的提升,孩子们开始尝试理解他人的内心世界,并逐步掌握这一技能,直至成年时,能轻松地洞悉他人的心理状态。
心理学家究竟是怎么测试的呢?我们可以看两个经典的实验。第一个叫做错误信念测试。心理学家给小孩展示一组图片,一个小朋友面前放着一个口袋,上面有巧克力标签,但里边装的却是爆米花。这时,心理学家提问了:如果有个小朋友刚刚过来,看到这个袋子,会觉得里边装的是什么呢?成年人会认为,这个小朋友没见见到袋子里边的爆米花,会根据标签认为是巧克力。但心智理论尚未健全的孩子就不一样了,他们可能无法分清自己知道什么、其他人又知道什么,于是推断说这个小朋友认为里边是爆米花。随着孩子年龄增长,心理学家还会加大难度,让孩子来推断,画中的小朋友认为,另一个小朋友怎么想。这就需要孩子能更熟练推断不同人的心理状态。
另一个实验叫做萨丽-安妮测试,心理学家给孩子展示一段录像或者图片,描绘的是萨丽和安妮一起待在房间里。这时,萨丽把一个球放到了篮子里,然后就离开了房间。安妮等她走了以后,把球藏到了盒子里。过了一会儿,萨丽回来了,请问,她会去哪里找球呢?成年人能推断出来,萨丽不知道安妮藏球的事儿,还是会去篮子里找球。但是孩子就不一样了,他们的心智理论还不成熟时,他们可能认为,萨丽会去盒子里寻找。
这两类测试都发现,孩子要到四岁才能正确回答问题,通过测试,而且一开始成绩还很不稳定。要到九岁才能灵活推测任何其他人的心理状态。
其实,咱们每个人都经历过这种“猜不透”、“看不懂”别人的阶段,只不过,随着年纪增长,大部分人都会获得心智理论,加上儿时的记忆逐渐模糊。如果不是心理学家做实验,人们还真不知道孩子的心理是这样的。
02
ChatGPT有没有心?
看了这两个实验,我们再来看这篇引起讨论的论文心里就有数了。大语言模型处理的是自然语言,于是科学家就把刚才的两个测试都编写成故事,输入给GPT-3.5,然后向它提出问题。结果,在错误信念实验中, GPT-3.5能正确回答20个问题中的17个;在萨丽-安妮测试中,GPT-3.5回答20个问题能够全对。为了防止GPT-3.5是靠关键词猜中的,科学家还改换不同的表达方式反复提问,甚至故意加入了一些逻辑混乱的“测谎题”。结果, GPT-3.5也通过了检测,依然能够回答正确的问题,遇到逻辑混乱的问题时也被绕晕了。
可不要小看这个成绩,之前的人工智能都不能通过心智理论测试。不仅如此,科学家同时检测了近来出现的其他8个人工智能,包括同类模型之前的版本。结果发现,只有GPT-3.5这个版本能达到这个成绩。GPT-3的版本成绩就大幅下降。有几个人工智能一道测试题也答不对。可以说,最新版本的GPT-3.5通过了这个心智理论的测试,而且大幅超越了它之前的版本。而且,它这个正确率逼近了人类九岁孩子的成绩,这才有了网上神乎其神的解读。
理解了心智理论的概念,也看了论文的方法,咱们再来说说网上的解读。九岁的“心智理论” “同理心” “心智” “智力”这些说法哪个靠谱?
“心智理论”显然是最比较准确的解读,论文中测试的就是心智理论这个能力。
“同理心”则有一点偏差,心理学家认为,心智理论和同理心是两种相近的能力,但同理心更偏重情绪和情感的体验。以ChatGPT为代表的大语言模型并不具备情绪能力,也就不具备通常所说的同理心。
“心智”的偏差就更大了,在心理学领域,心智是一个“大词”,指的是人具备思想、想象力、记忆、动机、感觉等,对于人类的心智究竟是什么,科学家还在争论。心智理论和心智共享了相同的字眼,意思却很不一样。显然,目前的大语言模型还不需要具备心智,但通过心智理论测试却没问题。
最后,“智力”这个解读也很不准确,科学家并没有进行智力测试,智力和心智理论是两个完全不同的概念。
03
ChatGPT没有心智,就不厉害吗?
看来, GPT-3.5虽然取得了一系列突破性的进步,但也不能过分解读,某一项特殊能力提升和九岁孩子的心智之间,有巨大的差异。而且,对于ChatGPT这类模型的争论也不少。著名人工智能专家杨立昆(Yann LeCun)就认为,ChatGPT和前几年的人工智能并没有本质上的突破。另一位著名人工智能专家侯世达(Douglas Hofstadter)则更为激进,他早在多年前就否定了ChatGPT等一系列人工智能的研究路线。他认为,这类人工智能是利用数学模型获得好的测试效果,但不论怎么演变,也不可能像人一样获得心智。
类似的争论还有很多。不同领域的学者,还有很多投资人都十分关心, GPT-3.5的后续版本还能取得多大进步,能不能产生类似心智的能力呢?至少目前还也未可知。不过,我想提醒大家,这篇论文的标题中,还有另一个关键词也值得细究,那就是“自发涌现”。这个词的意思是许多要素组成系统后,自发出现了原本没有的特性。人们经常为了特定的任务编写人工智能,比如下棋的人工智能、开车的人工智能等等。以ChatGPT为代表的大语言模型处理的是自然语言,在设计时并不是为了应付心智理论测试的,但是,它自己就具备了靠语言通过测试的能力。
这个结果,可能要比ChatGPT相当于几岁孩子更为重要。过去,很多人工智能专家希望先理解人类的大脑和心智,再用机器模拟出来。可是,人类的大脑实在是太复杂了,凭目前人类的心智,居然没法理解。然而,大语言模型告诉我们,就算弄不清人类是怎么说话的,人们还是可以教会电脑说话。甚至,电脑在学说话的时候,就自己学会了其他本领。
在许多科学家眼里,今天的人工智能却是像一个九岁小孩,真是未来可鸡,啊不,可期呀。
作者|陈朝 北京师范大学认知神经科学硕士
审核|唐义诚 北京中科普心理健康促进中心副主任
来源:科普中国
流程编辑:TF016
科技, ChatGPT, 人工智能, OpenAI
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!