阅读的功能与ChatGPT不同
AI情感助手

阅读的功能与ChatGPT不同

当当网创始人李国庆在4月23日的读书活动中表示,尽管人工智能如ChatGPT能模拟人类语言交流,但阅读无法替代其功能。阅读是一种审美享受,可以安顿心灵;同时也是求道解惑的有效途径,用较低成本获取知识,是最有价值的投资。
面对ChatGPT时,心流才是良方 | 深度观点
AI情感助手

面对ChatGPT时,心流才是良方 | 深度观点

郑舒宁博士 Dr. Tim Cheng 港大ICB高级课程主任 前恩智浦半导体(NXP)大中华区渠道及大客户管理主要负责人 澳大利亚纽卡斯尔大学(University of Newcastle)工商管理博士 近日各大电子媒体都纷纷讨论ChatGPT的功能,有人担心自身工作遭取代,而有人却因ChatGPT提升效率而感到欣慰。在各方观点中,正反两面势均力敌,但究竟ChatGPT对我们来说是利多于弊,还是弊多于利呢? 4月底,香港大学中国商业学院举办了为期三天的校内工作坊,欢迎来自全国各地的430名在职人士前来参与。他们选择前来香港大学中国商业学院攻读,旨在提升自我能力和开拓思维。在论坛中,香港大学协理副校长(大湾区发展)、香港大学中国商业学院(HKU ICB)创院院长刘宁荣教授分享了一个极为重要的观点:在工作中,虽然透过工具或许可以大大提升工作效率,但最关键的往往是工作的质量。这启发了作者对于ChatGPT的思考,即当ChatGPT来临时,如果我们希望不被淘汰,最关键的地方就是找到自己的独特之处,展现出那些无法被取代的能力。 vs. 当心流面对ChatGPT时,我们需要的是专注 在当今社会,「心流」已是众所周知的词语。心流理论的创始人、提米哈里·契克森米哈伊(Mihaly Csikszentmihalyi)于1975年出版的《心流:心理学的体验性理论》一书,详细阐述了心流状态的概念、特征和影响。 一项研究显示,进入心流状态可以提高工作效率。在研究中,参与者完成了一个简单的任务,并报告了他们的注意力和专注力情况。研究发现,进入心流状态的参与者完成任务的时间比未进入心流状态的参与者少了一半以上,因此可以提高工作满意度。此外,参与者在完成工作时报告了他们的情感状态和满意度。研究亦发现,进入心流状态的参与者报告了更高的满意度和更积极的情感状态。因此,当我们进入心流状态时,我们在日常工作中所做出的质量也会更高,从而得出更好的工作成果。 在面对科技进步所带来的取代性威胁时,我们需要更好地反思,该如何保存人类独有的能力,这是非常重要且珍贵的。 如前所提,要在日常工作中有效进入心流状态,以下是一些建议: 1、寻找挑战:选择具有挑战性的任务,挑战自己的能力和技能,但不要选择过于困难的任务以避免产生挫败感。 2、设定明确的目标:确定明确的目标和期望,以便在工作时保持专注和动力。 3、集中注意力:专注在当前的任务上,避免分心和干扰。 4、提高自我意识:了解自己的能力和限制,并调整自己的期望,以避免产生压力和挫败感。 5、持续挑战:持续挑战自己,进行新的任务和活动,以避免产生无聊和乏味感。 6、创造良好的环境:创造一个舒适、安静、整洁和有序的工作环境,以减少分散注意力和干扰。 7、寻找乐趣和流畅感:寻找在工作中的乐趣和流畅感,并享受这种状态的感觉。可以通过寻找感兴趣的任务和活动、与同事合作和分享等方式增强乐趣和流畅感。 进入心流状态可以带来许多好处,例如提高工作效率、提高工作满意度和情感状态、提高创造力和思维能力、增强自信心等。然而,进入心流状态也可能带来一些坏处,如容易忽视时间和环境,忽略其他重要的任务和职责等。因此,在追求心流状态时,需要平衡好时间和任务的安排,以免影响到其他方面的工作和生活。 然而,进入心流状态也可能带来一些坏处,例如过度专注可能会忽略其他重要的任务和活动,忽略身体状况(例如饥饿、疲劳和身体疼痛等),以及忽略社交互动和人际关系,可能影响人际关系和社交能力。 因此,在追求心流状态时,需要平衡好注意力和专注力,并注意身体状况和社交互动,避免产生不良影响。 图表1: 进入心流的条件, 挑战度及能力程度 500强的应用例子 以下是一些有关在工作中进入心流状态的数据和例子, 这些数据和例子支持了进入心流状态对于工作效率和满意度的正面影响: Google: 来自于 Google 公司的设计团队。该团队在工作中经常使用设计思维方法,以帮助他们进入心流状态。根据该团队的报告,进入心流状态可以帮助他们更好地理解用户需求和设计问题,从而创造更好的产品和服务。 IBM:在 IBM 公司,员工通过参加 Mindfulness At Work 训练课程学习进入心流状态。根据...
ChatGPT:人工智能写作工具的崛起与挑战
AI情感助手

ChatGPT:人工智能写作工具的崛起与挑战

文章讨论了人工智能撰写工具 ChatGPT 的最新动态和发展,强调了其在对话能力和创作能力上的突破,引发了市场和公众的关注。尽管 ChatGPT 还存在版权和原创性的问题,但它已成为一个相对成熟的写作工具,尤其适合处理一些简单的代码和文章。文章认为,尽管 ChatGPT 在某些方面已达到人类的水平,但仍存在一定的局限性,如信息来源的单一性和版权问题。
哲学僵尸:探讨意识与智能之间的关系
AI情感助手

哲学僵尸:探讨意识与智能之间的关系

这篇文章探讨了意识的本质与存在问题,作者认为意识是感受与经验的集合体,并指出意识的存在是无法否定的。文章同时讨论了共情在判断他人是否有意识中的作用,并提出了对于人工智能是否有意识的问题。
内心分裂的构建与调解
AI情感助手

内心分裂的构建与调解

这篇文章探讨了“内心建造一个不分裂的世界”的观点,提出了质疑,并对此进行了详细的分析。文章认为,人的内心本质上是复杂的,很难达到“不分裂”的统一状态;即使心灵达到某种“统一”,也不一定会带来“所有的关系都将经历一场巨大的革命”;每个人都在“内心建造一个不分裂的世界”可能会让世界变得单一化和刻板化。因此,文章对这句话持怀疑态度。同时,文章还探讨了内心的分裂来源,包括个人成长经历、需求和欲望、理性与情感张力、生活困境以及社会文化环境等因素。最后,文章提出可以通过自我认知和思考来调节和疏导这些内心分裂,达到某种平衡。
AI革命:未来知识与创新的引领者
AI情感助手

AI革命:未来知识与创新的引领者

本文讨论了人工智能的发展及其对未来社会的影响。随着ChatGPT的问世,人工智能引发了全球的关注和争议。文章指出,AI将改变人类的教育和思维方式,但同时也会带来风险。作者认为,人工智能无法取代人类的特质和创新能力,人的个性、创造性和批判性思维是人类的重要特质。
李大强,许双| ChatGPT会说话吗?——AI、心灵与语言
AI情感助手

李大强,许双| ChatGPT会说话吗?——AI、心灵与语言

李大强教授 李大强,吉林大学哲学基础理论研究中心暨哲学社会学院教授;许双,吉林大学哲学基础理论研究中心暨哲学社会学院博士生。 由于ChatGPT的卓越能力,在同它交流时,我们经常以为自己在与一个真人对话,然而,它所做的只是基于海量的既有语料执行操作——搜索、重组、替换,等等,除了操作文本(/符号),它什么也不会做。 33年前,丹尼特(Daniel Dennett)设计了一个思想实验。设想一台能处理自然语言的计算机,我们把一部百科全书输入计算机,用户向它提问,它回答,双方以自然语言交流。它的回答如此完美,以至于用户以为自己在和一个真人会话。然而,在了解真相的我们看来,用户以为计算机会说话,这是错觉,这台计算机只是在执行操作,它不会说话。ChatGPT的情况与丹尼特实验中的计算机非常相似。令人困惑的是,ChatGPT输出的文本与真正会说话的我们并无不同,既然如此,我们凭什么说ChatGPT不会说话呢?什么原因使得它不会说话?如果我们弄清了它不会说话的原因,我们是否可以造出真正会说话的AI? 塞尔(John Searle)的中文屋论证为我们的讨论提供起点。 一、中文屋、磨坊与心灵 1.塞尔与图灵测试 为了反驳某些同行关于“计算机是否有思维”的观点,塞尔构造了中文屋思想实验。这些同行的观点以“图灵测试”为内核,立论基础是一个行为主义式的质朴立场:如果一台计算机的行为表现(输入—输出)和一个有思维的人相同,则这台计算机有思维。塞尔试图论证,无论计算机的行为表现如何完美,都不构成“它有思维”的充分条件。 设想被测试者A被锁在一个房间中。测试员通过门缝把写有文字的卡片塞进来,A把写有文字的卡片塞出去,这是外界与屋内通讯的唯一方式。每张塞进来的卡片上用中文写着测试题,A完全不懂中文,在他看来,卡片上的字是无意义的符号。房间内有一本大书,书中是用英文书写的操作指令和大量的中文语料,A执行操作指令,基于卡片上的中文和书中的中文语料,得到一些中文字符,他把这些字符抄在卡片上,从门缝塞出去。 从测试员的角度看,屋内的人完美地回答了中文测试题,因而,屋内的人懂中文;事实上A不懂中文,他只是执行操作指令。把中文屋内的被测试者比作一台计算机,结论是,即使计算机完美地通过了中文测试(图灵测试),也不能说它懂中文或有思维。塞尔论证的梗概如下: (1)计算机所能执行的全部操作都是句法的(syntactic); (2)懂中文(有思维)的必要条件是语义(semantic); (3)通过单纯的句法操作无法生成语义; (4)因此,无论行为表现如何完美,计算机不懂中文(没有思维)。 值得一提的是,塞尔构造中文屋论证时所针对的是经典AI范式(或符号AI范式),而ChatGPT所依据的是神经网络AI范式(或连接主义AI范式),这个差别原本可能使塞尔论证对ChatGPT失效,然而,由于ChatGPT的某种重要缺失,它并没有超出塞尔论证的范围,即无论它在问答中的表现如何惊艳,塞尔都有理由说,它不会说话。 2. 塞尔论证的缺失 塞尔中文屋论证的前身是莱布尼茨在《单子论》中关于心灵的磨坊论证。由于磨坊论证更加简单,对比磨坊论证可以帮助我们为ChatGPT定位。设想我们可以把人脑放大到磨坊的规模,以至于我们可以亲身走入其中,清楚地观察所有部件的运作,如此我们就理解心灵了吗?莱布尼茨的答案是:不能。一个明显的结论是,心灵与磨坊全然不同。为了理解磨坊的运作,我们只须进入磨坊内部,搞清楚了内部就搞清楚了磨坊,理解磨坊不需要牵涉磨坊之外的世界。不同的是,为了理解心灵,单单进入大脑是不够的,即使我们知道大脑内部的全部细节,我们依然不理解心灵。简言之,理解心灵需要外部世界,我们必须在大脑和外部世界的交互中理解心灵。 心灵的这种独特品性在塞尔1990年的一次演讲中以另一种形式显现。塞尔指出,“大脑中的句子如何获得意义”与“大脑如何处理这些句子”是两个相互独立的问题。前者必须涉及外部世界,后者可以在大脑内部解决。进入磨坊,可以了解后者,但无法了解前者;描述中文屋的内部运行,可以解释后者,但无法解释前者。 当我们把中文屋整体(包括屋内的被测试者和输入输出的卡片)比作一颗大脑或一座磨坊时,中文屋就暴露出缺陷,即它与外部世界相隔离,除了空洞地处理符号(文本),它什么也不会做。 至此,ChatGPT的缺陷也显露无遗。ChatGPT与中文屋并无本质差别。无论ChatGPT聊天表现得如何惊艳,无论它的算力如何强大、语料库如何庞大、技术如何先进、原理如何复杂,其无法突破的限制在于,它被困在符号(文本)的海洋中,同外部世界相隔离。 中文屋不懂中文。同理,ChatGPT不会说话,它只是模仿说话。 中文屋论证发表以来,受到很多批评,丹尼特甚至尖刻地评价,没有人认为塞尔提出了一个好论证。最明显也最严重的问题在于,塞尔完全没有给计算机留余地:无论计算机的功能如何卓越,无论AI的成就如何巨大,塞尔都可以得意地说,它没有思维。塞尔的判断不依赖于计算机的行为表现,而AI的全部进步只能显示为行为表现,以上两条合在一起,明显的结论是,塞尔的论证与可观察的证据相脱节——这是扶手椅哲学的典型特征。即使一个AI系统的行为表现与真人的大脑全然不可分辨,仅仅因为前者的硬件不是人脑,它就没有心灵。塞尔为了在计算机和人脑之间做出区分,使用了诸多术语,“语义”“因果能力”“原初意向性”,等等。在丹尼特看来,由于同可观察的证据脱节,塞尔的术语是“神秘的”。 除非我们彻底放弃希望,不指望有朝一日造出真正有思维的AI,否则,我们必须对塞尔的立场进行修订。我们需要给计算机留余地:如果AI不仅行为表现与真人近似,而且满足某些额外条件,我们以及塞尔,会承认它有思维。弄清这些条件对于制造真正会说话的AI至关重要,塞尔的论证为我们寻找这些条件提供线索。稍后我们会回到这个话题。 冈德森(Keith Gunderson)主张,塞尔中文屋论证的要点在于,从计算机和人在输入—输出方面的相似性不能推出计算机和人的内在相似性。这种解读没错,但要点不在于凭借输入—输出是否足以判断AI懂中文,而在于输入—输出的性质。中文屋以及ChatGPT的输入—输出依然在文本的(符号的)范围之内,于是,中文屋整体(包括输入输出的卡片)依然同真实世界相隔离,塞尔的论证是有效的;如果改变输入—输出的性质,使得中文屋整体和真实世界相关,情况则全然不同。普特南的缸中之脑论证显示了输入—输出性质的重要性。 二、缸中之脑会说话吗? 设想一颗大脑泡在盛满营养液的缸中,脑的神经末梢同一台超级计算机相连,脑输入和输出的信号完全被计算机接管。因此缸中之脑以为自己生活在真实的世界中,控制着自己的身体,和外界交互。当然,这都是计算机制造的幻象。现在,基于计算机提供的信号,缸中之脑以为自己在操场上,于是它说:“我在操场。”出于巧合,盛放大脑的缸被偶然置于操场,这样,事实上缸中之脑确实在操场。我们是否会说,“我在操场”是一句真话? 在普特南看来,缸中之脑说出的根本不是话。话之为话,前提是话中的词有指称;词有指称,前提是在词与所指事物之间存在因果相互作用。缸中之脑以为自己生活在真实世界中,以为自己的词指称真实世界中的人和物;实际情况是,缸中之脑生活在幻相中,它的词顶多指称虚幻世界中的影像,在真实世界中没有指称。 值得注意的是,普特南和塞尔都关心图灵测试,缸中之脑和中文屋都是在反对图灵的背景下提出的。设想一次图灵测试,参加测试的人和计算机都说出“李雷在操场”这句话,单看这个语句本身,人的输出和计算机的输出并无差别。但是,普特南和塞尔都会说,计算机的输出不是话。 什么原因使得人比计算机优越?普特南的说法是,人与世界有因果相互关系;塞尔的说法是,人有语义、因果能力、原初意向性。抛开术语上的不同,二者的观点是一样的:话之为话,前提是说者同真实世界相关联。问题在于,这种关联的性质是怎样的?普特南要求这种关联必须是因果相互关系。在缸中之脑和真实世界之间,也是有某种关联的。在普特南看来,这种关联太弱,以至于缸中之脑不会说话。我们是否可以设想某种局面,使得缸中之脑可以说话?缸中之脑被困在超级计算机提供的信号中,正如ChatGPT被困在人类提供的文本中,二者都有说话的潜力,都因同真实世界相隔绝而不会说话。如果某种局面使得缸中之脑可以说话,就意味着ChatGPT说话也是有可能的。我们构造两个思想实验: (1)洞穴中的诸葛明一。诸葛明和诸葛亮是孪生兄弟。诸葛明有卓越的战略头脑,自幼失明失聪;诸葛亮才智平平,耳目健全。诸葛明一生在洞穴中隐居,他获得外界信息的唯一通道是诸葛亮在他手心上点点划划,类似于海伦·凯勒和家庭教师安妮·莎莉文之间的交流方式。诸葛亮被聘为军师,每当被问计谋时,他都说“容我想想”,然后进入洞穴,向诸葛明求教,诸葛明传授计策,而后诸葛亮把计策“搬运”给主公。某天,诸葛明说:“我在洞穴中。”他所说的是话吗?我们有一个强烈的直觉:除视听障碍之外,诸葛明同我们一样,他所说的当然是话;而且,同我们一样,他对洞穴外的世界有真实的了解。这个问题的巧妙之处在于,诸葛明的处境和缸中之脑相同,他同洞穴之外的世界没有直接联系,全部关联都是以诸葛亮为中介的。诸葛亮接管了诸葛明同洞外世界的联系,正如超级计算机接管了缸中之脑同真实世界的联系。 (2)洞穴中的诸葛明二。背景设定同上。诸葛亮出于某种原因,对诸葛明进行了系统性的欺骗,以至于诸葛明对外界的理解是全然错误的。他以为,自己生活在《权力的游戏》的世界中,洞外有精灵、夜鬼和龙,自己的住处是宫殿——在他的世界图景中,宫殿属于洞穴的一种。某天,诸葛明说:“我在洞穴中。”他所说的是话吗? 这个问题令人犹豫。他的世界图景是错误的,在一定限度内,我们不会因此否认他的心智能力。事实上,每一个正常人的健全常识中都包含着大量的假命题,我们同诸葛明的差别仅仅是量的差别。既然我们说的是话,他说的也是话。然而,如果世界图景的错误达到某种严重程度——例如,他认为自己是一条龙——,我们会说,他已经丧失心智能力,他说的不是话。 以上两个思想实验都是缸中之脑的变体。诸葛明一和诸葛明二都生活在诸葛亮提供的信息中,这些信息构成了二者的心智环境,二者同洞外世界的联系都是通过这种心智环境建立的,都不是因果相互关系。如果我们接受普特南的主张,以因果相互关系为话之为话的前提,那么,二者都不会说话。然而,诸葛明一会说话,诸葛明二在一定限度内会说话。二者之间的差别在于,诸葛明一所处的心智环境与真实世界是高度耦合的,而诸葛明二所处的心智环境与真实世界的耦合度低。显然,因果相互关系不是要点,耦合度才是要点。 这个结论的价值在于,我们可以把ChatGPT视为一颗缸中之脑。ChatGPT同世界之间的关联以人类提供的文本为中介,文本的性质对于我们如何评估ChatGPT至关重要。这些文本是高度异质性的,每一条语料原本嵌在各自的语境中,服务于说话者各不相同的目的,其中只有一部分以描述真实世界为目的,而且,这一部分语料中也仅有一部分是对世界的真实描述。ChatGPT对这种异质性无能为力,千差万别的语境在语料之外,会说话的真人可以为语料“脑补”相应语境,ChatGPT没有这种能力。因此,在文本库和真实世界之间没有耦合关系,这导致ChatGPT输出的词在真实世界中没有指称。 需要强调的是,以上分析只能说明ChatGPT暂时不会说话。如果我们为它提供一个与真实世界的某个局部高度耦合的环境,它有可能学会说话。 缸中之脑思想实验的前身是柏拉图的洞穴寓言和笛卡尔的恶魔,比较这三者可以帮助我们理解人类心灵同ChatGPT的关系。笛卡尔发现,我们无法排除这样一种可能性:我们对世界的全部信念不是源自真实的外部世界,而是源自恶魔的欺骗;同样,普特南发现,我们有可能是缸中之脑,我们视为实存的一切有可能是超级计算机制造的幻象。我们对世界的信念以经验为证据,当经验本身成为怀疑对象时,我们面临超出思维(语言)限度的风险。除了相信(或预设)经验是可靠的,我们别无他法。经验充当我们和世界之间的中介,正如超级计算机充当缸中之脑和世界之间的中介。如果经验对我们进行系统性的欺骗,我们就既不能思,也不能说,虽然我们自以为能思能说——我们永远无法发现真相。 要点在于,即使我是缸中之脑,也不意味着我一定不能思和说。我的大脑所接收的信息来自何处是无关紧要的,无论是来自感官,还是来自超级计算机,只要这些信息没有系统性地欺骗我,我就能思和说。进一步说,只要超级计算机为缸中之脑提供的虚拟环境同真实世界的某个局部高度耦合,我们就可以认为,缸中之脑的经验与我们的经验同样可靠。这个结论可以延伸至ChatGPT,为了能说话,同世界建立因果相互关系不是必要条件。 海伦·凯勒说:“哲学是一个大写的既瞎又聋的人的历史。”她对世界的了解大量地借助他人的转述,她无法检验自己是否受到系统性的欺骗,只能相信(或预设)她获得的信息是可靠的。这种局面使得她对柏拉图的洞穴预言有直接体会。在洞穴寓言的设定中,人类的处境与海伦·凯勒相同。经验充当人的心灵和世界之间的中介,既然经验的可靠性是预设的,世界的真实性也是预设的。此处,“世界”一词有歧义。如果我们认同洞穴寓言的视角,则我们所经验的世界仅仅是洞穴中的世界,在洞穴之外,尚有一个真实世界;如果我们反对洞穴寓言的视角,则我们所经验的世界就是真实世界。 以这种视角看ChatGPT,它所掌握的文本充当它和世界之间的中介。它困在文本中,正如人的心灵困在洞穴中。在“ChatGPT—文本—世界”与“人—经验—世界”之间,存在某种嵌套关系,前一个“世界”和后一个“世界”其实不是一个词,前者指人所经验的世界,后者指人预设的真实世界。根本而言,人与ChatGPT并无本质上的不同,既然人会说话,为什么ChatGPT不会?关键在于,人的话充当心灵和世界的中介。 三、作为中介的语言 大脑之于心灵,如同计算机之于程序。我们有一个根深蒂固的观念:心灵在大脑中。在《扩展心灵》一文中,克拉克和查尔默斯希望把心灵扩展到大脑之外,他们把自己的主张称为“积极的外在论”(active externalism)。抽象地说,某些事物与人的机体(organism)相连接,共同组成一个系统,克拉克和查尔默斯称为认知系统。认知过程(认知活动)不是发生于人的大脑中,而是发生于这个系统中,“心灵”的概念由此扩展,这些事物原本是外部世界的一部分,现在被纳入心灵之内。所谓的扩展心灵(extended mind)就是指这个系统。...
ChatGPT:人工智能助手是否能替代心理咨询师
AI情感助手

ChatGPT:人工智能助手是否能替代心理咨询师

ChatGPT是一款人工智能聊天机器人,近期成为AI界的热点。尽管它可以进行语言交互并提供一定程度的信息和建议,但并不能完全取代心理咨询。心理咨询师具有人际交往和直接沟通的能力,以及对情绪、需求和情况的灵活应对,这是AI无法提供的。同时,ChatGPT缺乏共情和专业敏感性,因此在许多情况下,它并不能完全替代心理咨询。
ChatGPT心理咨询功能的探讨与反思
AI情感助手

ChatGPT心理咨询功能的探讨与反思

自ChatGPT火爆以来,其在心理咨询领域的应用引起广泛关注。尽管它能够提供准确、及时的专业建议,但也存在数据质量和道德风险的问题。事实上,ChatGPT并非真正能替代心理咨询师的工作。当前,我国心理咨询师数量远不足于世界卫生组织的建议,尤其是年轻人群体更需要心理帮助。因此,我们应重视青少年心理需求,并为他们提供更专业的服务。
新媒体时代的传播困境与人文关怀
AI情感助手

新媒体时代的传播困境与人文关怀

这篇文章介绍了人文学院新媒体中心的编辑马雪梅和选题董益铭,他们在工作中不断努力提高自己的专业素养,通过细致的编辑工作和深入的选题研究,为读者呈现高质量的文章。他们的专业精神和工作态度值得我们学习和借鉴。