李大强,许双| ChatGPT会说话吗?——AI、心灵与语言
AI情感助手

李大强,许双| ChatGPT会说话吗?——AI、心灵与语言

李大强教授 李大强,吉林大学哲学基础理论研究中心暨哲学社会学院教授;许双,吉林大学哲学基础理论研究中心暨哲学社会学院博士生。 由于ChatGPT的卓越能力,在同它交流时,我们经常以为自己在与一个真人对话,然而,它所做的只是基于海量的既有语料执行操作——搜索、重组、替换,等等,除了操作文本(/符号),它什么也不会做。 33年前,丹尼特(Daniel Dennett)设计了一个思想实验。设想一台能处理自然语言的计算机,我们把一部百科全书输入计算机,用户向它提问,它回答,双方以自然语言交流。它的回答如此完美,以至于用户以为自己在和一个真人会话。然而,在了解真相的我们看来,用户以为计算机会说话,这是错觉,这台计算机只是在执行操作,它不会说话。ChatGPT的情况与丹尼特实验中的计算机非常相似。令人困惑的是,ChatGPT输出的文本与真正会说话的我们并无不同,既然如此,我们凭什么说ChatGPT不会说话呢?什么原因使得它不会说话?如果我们弄清了它不会说话的原因,我们是否可以造出真正会说话的AI? 塞尔(John Searle)的中文屋论证为我们的讨论提供起点。 一、中文屋、磨坊与心灵 1.塞尔与图灵测试 为了反驳某些同行关于“计算机是否有思维”的观点,塞尔构造了中文屋思想实验。这些同行的观点以“图灵测试”为内核,立论基础是一个行为主义式的质朴立场:如果一台计算机的行为表现(输入—输出)和一个有思维的人相同,则这台计算机有思维。塞尔试图论证,无论计算机的行为表现如何完美,都不构成“它有思维”的充分条件。 设想被测试者A被锁在一个房间中。测试员通过门缝把写有文字的卡片塞进来,A把写有文字的卡片塞出去,这是外界与屋内通讯的唯一方式。每张塞进来的卡片上用中文写着测试题,A完全不懂中文,在他看来,卡片上的字是无意义的符号。房间内有一本大书,书中是用英文书写的操作指令和大量的中文语料,A执行操作指令,基于卡片上的中文和书中的中文语料,得到一些中文字符,他把这些字符抄在卡片上,从门缝塞出去。 从测试员的角度看,屋内的人完美地回答了中文测试题,因而,屋内的人懂中文;事实上A不懂中文,他只是执行操作指令。把中文屋内的被测试者比作一台计算机,结论是,即使计算机完美地通过了中文测试(图灵测试),也不能说它懂中文或有思维。塞尔论证的梗概如下: (1)计算机所能执行的全部操作都是句法的(syntactic); (2)懂中文(有思维)的必要条件是语义(semantic); (3)通过单纯的句法操作无法生成语义; (4)因此,无论行为表现如何完美,计算机不懂中文(没有思维)。 值得一提的是,塞尔构造中文屋论证时所针对的是经典AI范式(或符号AI范式),而ChatGPT所依据的是神经网络AI范式(或连接主义AI范式),这个差别原本可能使塞尔论证对ChatGPT失效,然而,由于ChatGPT的某种重要缺失,它并没有超出塞尔论证的范围,即无论它在问答中的表现如何惊艳,塞尔都有理由说,它不会说话。 2. 塞尔论证的缺失 塞尔中文屋论证的前身是莱布尼茨在《单子论》中关于心灵的磨坊论证。由于磨坊论证更加简单,对比磨坊论证可以帮助我们为ChatGPT定位。设想我们可以把人脑放大到磨坊的规模,以至于我们可以亲身走入其中,清楚地观察所有部件的运作,如此我们就理解心灵了吗?莱布尼茨的答案是:不能。一个明显的结论是,心灵与磨坊全然不同。为了理解磨坊的运作,我们只须进入磨坊内部,搞清楚了内部就搞清楚了磨坊,理解磨坊不需要牵涉磨坊之外的世界。不同的是,为了理解心灵,单单进入大脑是不够的,即使我们知道大脑内部的全部细节,我们依然不理解心灵。简言之,理解心灵需要外部世界,我们必须在大脑和外部世界的交互中理解心灵。 心灵的这种独特品性在塞尔1990年的一次演讲中以另一种形式显现。塞尔指出,“大脑中的句子如何获得意义”与“大脑如何处理这些句子”是两个相互独立的问题。前者必须涉及外部世界,后者可以在大脑内部解决。进入磨坊,可以了解后者,但无法了解前者;描述中文屋的内部运行,可以解释后者,但无法解释前者。 当我们把中文屋整体(包括屋内的被测试者和输入输出的卡片)比作一颗大脑或一座磨坊时,中文屋就暴露出缺陷,即它与外部世界相隔离,除了空洞地处理符号(文本),它什么也不会做。 至此,ChatGPT的缺陷也显露无遗。ChatGPT与中文屋并无本质差别。无论ChatGPT聊天表现得如何惊艳,无论它的算力如何强大、语料库如何庞大、技术如何先进、原理如何复杂,其无法突破的限制在于,它被困在符号(文本)的海洋中,同外部世界相隔离。 中文屋不懂中文。同理,ChatGPT不会说话,它只是模仿说话。 中文屋论证发表以来,受到很多批评,丹尼特甚至尖刻地评价,没有人认为塞尔提出了一个好论证。最明显也最严重的问题在于,塞尔完全没有给计算机留余地:无论计算机的功能如何卓越,无论AI的成就如何巨大,塞尔都可以得意地说,它没有思维。塞尔的判断不依赖于计算机的行为表现,而AI的全部进步只能显示为行为表现,以上两条合在一起,明显的结论是,塞尔的论证与可观察的证据相脱节——这是扶手椅哲学的典型特征。即使一个AI系统的行为表现与真人的大脑全然不可分辨,仅仅因为前者的硬件不是人脑,它就没有心灵。塞尔为了在计算机和人脑之间做出区分,使用了诸多术语,“语义”“因果能力”“原初意向性”,等等。在丹尼特看来,由于同可观察的证据脱节,塞尔的术语是“神秘的”。 除非我们彻底放弃希望,不指望有朝一日造出真正有思维的AI,否则,我们必须对塞尔的立场进行修订。我们需要给计算机留余地:如果AI不仅行为表现与真人近似,而且满足某些额外条件,我们以及塞尔,会承认它有思维。弄清这些条件对于制造真正会说话的AI至关重要,塞尔的论证为我们寻找这些条件提供线索。稍后我们会回到这个话题。 冈德森(Keith Gunderson)主张,塞尔中文屋论证的要点在于,从计算机和人在输入—输出方面的相似性不能推出计算机和人的内在相似性。这种解读没错,但要点不在于凭借输入—输出是否足以判断AI懂中文,而在于输入—输出的性质。中文屋以及ChatGPT的输入—输出依然在文本的(符号的)范围之内,于是,中文屋整体(包括输入输出的卡片)依然同真实世界相隔离,塞尔的论证是有效的;如果改变输入—输出的性质,使得中文屋整体和真实世界相关,情况则全然不同。普特南的缸中之脑论证显示了输入—输出性质的重要性。 二、缸中之脑会说话吗? 设想一颗大脑泡在盛满营养液的缸中,脑的神经末梢同一台超级计算机相连,脑输入和输出的信号完全被计算机接管。因此缸中之脑以为自己生活在真实的世界中,控制着自己的身体,和外界交互。当然,这都是计算机制造的幻象。现在,基于计算机提供的信号,缸中之脑以为自己在操场上,于是它说:“我在操场。”出于巧合,盛放大脑的缸被偶然置于操场,这样,事实上缸中之脑确实在操场。我们是否会说,“我在操场”是一句真话? 在普特南看来,缸中之脑说出的根本不是话。话之为话,前提是话中的词有指称;词有指称,前提是在词与所指事物之间存在因果相互作用。缸中之脑以为自己生活在真实世界中,以为自己的词指称真实世界中的人和物;实际情况是,缸中之脑生活在幻相中,它的词顶多指称虚幻世界中的影像,在真实世界中没有指称。 值得注意的是,普特南和塞尔都关心图灵测试,缸中之脑和中文屋都是在反对图灵的背景下提出的。设想一次图灵测试,参加测试的人和计算机都说出“李雷在操场”这句话,单看这个语句本身,人的输出和计算机的输出并无差别。但是,普特南和塞尔都会说,计算机的输出不是话。 什么原因使得人比计算机优越?普特南的说法是,人与世界有因果相互关系;塞尔的说法是,人有语义、因果能力、原初意向性。抛开术语上的不同,二者的观点是一样的:话之为话,前提是说者同真实世界相关联。问题在于,这种关联的性质是怎样的?普特南要求这种关联必须是因果相互关系。在缸中之脑和真实世界之间,也是有某种关联的。在普特南看来,这种关联太弱,以至于缸中之脑不会说话。我们是否可以设想某种局面,使得缸中之脑可以说话?缸中之脑被困在超级计算机提供的信号中,正如ChatGPT被困在人类提供的文本中,二者都有说话的潜力,都因同真实世界相隔绝而不会说话。如果某种局面使得缸中之脑可以说话,就意味着ChatGPT说话也是有可能的。我们构造两个思想实验: (1)洞穴中的诸葛明一。诸葛明和诸葛亮是孪生兄弟。诸葛明有卓越的战略头脑,自幼失明失聪;诸葛亮才智平平,耳目健全。诸葛明一生在洞穴中隐居,他获得外界信息的唯一通道是诸葛亮在他手心上点点划划,类似于海伦·凯勒和家庭教师安妮·莎莉文之间的交流方式。诸葛亮被聘为军师,每当被问计谋时,他都说“容我想想”,然后进入洞穴,向诸葛明求教,诸葛明传授计策,而后诸葛亮把计策“搬运”给主公。某天,诸葛明说:“我在洞穴中。”他所说的是话吗?我们有一个强烈的直觉:除视听障碍之外,诸葛明同我们一样,他所说的当然是话;而且,同我们一样,他对洞穴外的世界有真实的了解。这个问题的巧妙之处在于,诸葛明的处境和缸中之脑相同,他同洞穴之外的世界没有直接联系,全部关联都是以诸葛亮为中介的。诸葛亮接管了诸葛明同洞外世界的联系,正如超级计算机接管了缸中之脑同真实世界的联系。 (2)洞穴中的诸葛明二。背景设定同上。诸葛亮出于某种原因,对诸葛明进行了系统性的欺骗,以至于诸葛明对外界的理解是全然错误的。他以为,自己生活在《权力的游戏》的世界中,洞外有精灵、夜鬼和龙,自己的住处是宫殿——在他的世界图景中,宫殿属于洞穴的一种。某天,诸葛明说:“我在洞穴中。”他所说的是话吗? 这个问题令人犹豫。他的世界图景是错误的,在一定限度内,我们不会因此否认他的心智能力。事实上,每一个正常人的健全常识中都包含着大量的假命题,我们同诸葛明的差别仅仅是量的差别。既然我们说的是话,他说的也是话。然而,如果世界图景的错误达到某种严重程度——例如,他认为自己是一条龙——,我们会说,他已经丧失心智能力,他说的不是话。 以上两个思想实验都是缸中之脑的变体。诸葛明一和诸葛明二都生活在诸葛亮提供的信息中,这些信息构成了二者的心智环境,二者同洞外世界的联系都是通过这种心智环境建立的,都不是因果相互关系。如果我们接受普特南的主张,以因果相互关系为话之为话的前提,那么,二者都不会说话。然而,诸葛明一会说话,诸葛明二在一定限度内会说话。二者之间的差别在于,诸葛明一所处的心智环境与真实世界是高度耦合的,而诸葛明二所处的心智环境与真实世界的耦合度低。显然,因果相互关系不是要点,耦合度才是要点。 这个结论的价值在于,我们可以把ChatGPT视为一颗缸中之脑。ChatGPT同世界之间的关联以人类提供的文本为中介,文本的性质对于我们如何评估ChatGPT至关重要。这些文本是高度异质性的,每一条语料原本嵌在各自的语境中,服务于说话者各不相同的目的,其中只有一部分以描述真实世界为目的,而且,这一部分语料中也仅有一部分是对世界的真实描述。ChatGPT对这种异质性无能为力,千差万别的语境在语料之外,会说话的真人可以为语料“脑补”相应语境,ChatGPT没有这种能力。因此,在文本库和真实世界之间没有耦合关系,这导致ChatGPT输出的词在真实世界中没有指称。 需要强调的是,以上分析只能说明ChatGPT暂时不会说话。如果我们为它提供一个与真实世界的某个局部高度耦合的环境,它有可能学会说话。 缸中之脑思想实验的前身是柏拉图的洞穴寓言和笛卡尔的恶魔,比较这三者可以帮助我们理解人类心灵同ChatGPT的关系。笛卡尔发现,我们无法排除这样一种可能性:我们对世界的全部信念不是源自真实的外部世界,而是源自恶魔的欺骗;同样,普特南发现,我们有可能是缸中之脑,我们视为实存的一切有可能是超级计算机制造的幻象。我们对世界的信念以经验为证据,当经验本身成为怀疑对象时,我们面临超出思维(语言)限度的风险。除了相信(或预设)经验是可靠的,我们别无他法。经验充当我们和世界之间的中介,正如超级计算机充当缸中之脑和世界之间的中介。如果经验对我们进行系统性的欺骗,我们就既不能思,也不能说,虽然我们自以为能思能说——我们永远无法发现真相。 要点在于,即使我是缸中之脑,也不意味着我一定不能思和说。我的大脑所接收的信息来自何处是无关紧要的,无论是来自感官,还是来自超级计算机,只要这些信息没有系统性地欺骗我,我就能思和说。进一步说,只要超级计算机为缸中之脑提供的虚拟环境同真实世界的某个局部高度耦合,我们就可以认为,缸中之脑的经验与我们的经验同样可靠。这个结论可以延伸至ChatGPT,为了能说话,同世界建立因果相互关系不是必要条件。 海伦·凯勒说:“哲学是一个大写的既瞎又聋的人的历史。”她对世界的了解大量地借助他人的转述,她无法检验自己是否受到系统性的欺骗,只能相信(或预设)她获得的信息是可靠的。这种局面使得她对柏拉图的洞穴预言有直接体会。在洞穴寓言的设定中,人类的处境与海伦·凯勒相同。经验充当人的心灵和世界之间的中介,既然经验的可靠性是预设的,世界的真实性也是预设的。此处,“世界”一词有歧义。如果我们认同洞穴寓言的视角,则我们所经验的世界仅仅是洞穴中的世界,在洞穴之外,尚有一个真实世界;如果我们反对洞穴寓言的视角,则我们所经验的世界就是真实世界。 以这种视角看ChatGPT,它所掌握的文本充当它和世界之间的中介。它困在文本中,正如人的心灵困在洞穴中。在“ChatGPT—文本—世界”与“人—经验—世界”之间,存在某种嵌套关系,前一个“世界”和后一个“世界”其实不是一个词,前者指人所经验的世界,后者指人预设的真实世界。根本而言,人与ChatGPT并无本质上的不同,既然人会说话,为什么ChatGPT不会?关键在于,人的话充当心灵和世界的中介。 三、作为中介的语言 大脑之于心灵,如同计算机之于程序。我们有一个根深蒂固的观念:心灵在大脑中。在《扩展心灵》一文中,克拉克和查尔默斯希望把心灵扩展到大脑之外,他们把自己的主张称为“积极的外在论”(active externalism)。抽象地说,某些事物与人的机体(organism)相连接,共同组成一个系统,克拉克和查尔默斯称为认知系统。认知过程(认知活动)不是发生于人的大脑中,而是发生于这个系统中,“心灵”的概念由此扩展,这些事物原本是外部世界的一部分,现在被纳入心灵之内。所谓的扩展心灵(extended mind)就是指这个系统。...
ChatGPT:人工智能助手是否能替代心理咨询师
AI情感助手

ChatGPT:人工智能助手是否能替代心理咨询师

ChatGPT是一款人工智能聊天机器人,近期成为AI界的热点。尽管它可以进行语言交互并提供一定程度的信息和建议,但并不能完全取代心理咨询。心理咨询师具有人际交往和直接沟通的能力,以及对情绪、需求和情况的灵活应对,这是AI无法提供的。同时,ChatGPT缺乏共情和专业敏感性,因此在许多情况下,它并不能完全替代心理咨询。
ChatGPT心理咨询功能的探讨与反思
AI情感助手

ChatGPT心理咨询功能的探讨与反思

自ChatGPT火爆以来,其在心理咨询领域的应用引起广泛关注。尽管它能够提供准确、及时的专业建议,但也存在数据质量和道德风险的问题。事实上,ChatGPT并非真正能替代心理咨询师的工作。当前,我国心理咨询师数量远不足于世界卫生组织的建议,尤其是年轻人群体更需要心理帮助。因此,我们应重视青少年心理需求,并为他们提供更专业的服务。
新媒体时代的传播困境与人文关怀
AI情感助手

新媒体时代的传播困境与人文关怀

这篇文章介绍了人文学院新媒体中心的编辑马雪梅和选题董益铭,他们在工作中不断努力提高自己的专业素养,通过细致的编辑工作和深入的选题研究,为读者呈现高质量的文章。他们的专业精神和工作态度值得我们学习和借鉴。
ChatGPT具有心智吗?让我们回顾一下历史上的心灵哲学
AI情感助手

ChatGPT具有心智吗?让我们回顾一下历史上的心灵哲学

陪你聊天、查找资料、帮你写论文、甚至可以生成自己的观点……你能相信与你交流的不是真人,而是一个人工智能机器人吗?最近,ChatGPT频繁占据话题榜单的榜首。斯坦福大学的一名学者发论文称,GPT-3之后的AI模型,其同理心能力已经达到9岁小孩的水平。而GPT-4在各种专业和学术的考试中都取得了令人惊叹的成绩,比如在生物奥林匹克竞赛中,GPT-4以99%的水平分位获得了金牌。一时间,有关“AI是否具备心智”的讨论再次掀起一波热潮。 在科技改变生活的同时,人们也隐隐感到担忧。一些人想象人工智能最终会取代人类,甚至威胁到人类的生活;而另一些人却认为,机器被开发的“智能”有别于真正的“人类心智”。问题的关键在于:什么才是心智?  如果一个机器人可以收集、分析信息,还会自主学习,甚至具备一定的理解力,我们能不能说机器人拥有心智?人类心灵中属于意志、情感的部分,如果可以被机器人模仿,我们可以认为机器人也拥有情感吗?“模仿行为”与“情感驱动”的界限在哪里? 要深入思考这一问题,我们不妨看看历史上伟大著作中对于“心灵”的讨论。从古至今,哲学家们一直在思考“何为心灵”,并且得出了风格迥异的结论。在漫长的哲学史中,心灵曾是灵魂中的一种力量;后又和物质成为并行的两个实体;心灵时而变作统摄认知的秩序;又有人说个体的心灵最终导向无限……这些讨论并不会直接告诉我们有关ChatGPT的答案,但是可以让我们更加理解“心灵”为何物。 *以下内容综合整理自《西方大观念》(下册)“心灵”一章,完整内容请见原书。  心灵如何运作?心灵的分区  亚里士多德:心灵是人类灵魂一部分的力量 亚里士多德 “在灵魂中被称作心灵的东西,”亚里士多德写道,“是灵魂据以思维和判断之物。”对他也对柏拉图而言,人类的理智或理性,是人类灵魂的一部分或力量,有别于其他部分或官能,如感觉和想象欲望和激情。尽管由于具有这个部分或力量,人类灵魂有别于其他生物的灵魂,人类灵魂并因此被亚里士多德称为“理性的灵魂”,但是,这些作家并没有将心灵与灵魂等同起来。因为灵魂是生命以及一切生机活动的原理,所以心灵是知识和思维、考虑、决定等活动的从属原理。 阿奎那:主动理智和潜在理智 阿奎那写道,人类理智“在于达到可理解事物的潜能,并且像哲学家说的那样,起先像一块没有写字的干净板子。这从一个事实中就可以弄清楚,那就是,我们起先只是有理解的潜能,然后我们实际可以理解了。所以很明显,就我们而言,理解在某种程度上是被动的”。 但是,事物的形式或阿奎那称为的事物的“可理解样式”(intelligible species),并不是像它们存在于质料事物中那样实际地可理解的。他因此论证说,除了“能接纳这些样式的能力(由于它有达到这些样式的潜能,所以被称为可能的理智)”之外,还必须有另一种理智的能力,他称之为主动的或“能动”理智。他说,如果不通过某个行动中的事物或已经是实际的事物,“任何东西都不可能把潜能变成行动”。“因此我们必须在理智上指派某个力量,通过将这些样式从质料情形中抽离出来,使得事物实际可理解。这就是设定一个能动理智的必要性”。  心灵是一个实体吗?心灵与物质的关系 笛卡尔:思维实体和广延实体 笛卡尔 根据笛卡尔,人性的这两个部件每一个都是实体一一一个思维的实体和一个广延的实体。笛卡尔互换地使用“理性的灵魂”和“心灵”这两个短语。理性或理智一一思维的能力一一不是灵魂的一个力量。思维也不是灵魂有时候做有时候不做的一个行动。心灵是灵魂自身的真正本质,就像广延是身体的本质一样。正如身体如果实际没有三维就不可能存在那样,心灵没有思维也不可能存在。 洛克:我们身上有某个东西具有思维的力量 恰好是这种心灵的存在与思维活动的相等,遭到洛克的挑战。“我们通过经验确定地知道,”洛克写道,“我们有时思维并从此得出这个不谬的结果,即我们身上有某个东西具有思维的力量;但是,不管那个实体是否永久思维,我们并不能进一步比经验告诉我们的担保更多……我承认一个醒着的人的灵魂绝不会没有思想,因为这是醒着的条件。但是,是否无梦之眠不是整个人(心灵和身体)的一个感触,也许值得一个醒着的人思考……在我看来,每一个昏昏欲眠的打盹动摇着他们的学说,他们说灵魂总是在思维。” 黑格尔:绝对精神的阶段性辩证运动 黑格尔将人类心灵视为绝对心灵或精神的一个阶段或辩证运动,这堪与斯宾诺莎将人类心灵视为上帝的无限理智的一部分比肩。黑格尔在《精神现象学》和《精神哲学》这些著作中发展出来,反映在他的《历史哲学》和《法哲学》之中。因此,对他的心灵观的表达出现在历史和国家那些章节中,也出现在这里。 弗洛伊德:意识、潜意识与无意识 弗洛伊德也提出了对不同类型的心理内容的分析,并伴之以一种关于心灵的不同层面或精神结构的理论。例如他认为“我们具有两种无意识——一种是潜伏的但能够成为有意识的,另一种是压抑的并且无法以寻常的方式变成有意识的……潜伏的并在描述的而非动态意义上无意识的东西,我们称之为前意识;无意识这个术语我们留给受压抑的动态的无意识的东西,这样我们就有了三个术语,意识、潜意识和无意识。”  心灵既不是实体,也不是一种功能 康德:作为秩序的心灵 最后,有一种理论说心灵既不是灵魂的官能之一,也不是一个思维的实体:也不是一个有多种力量的灵魂或精神。我们的一切知识,”康德写道:“始于经验,自此进入到知性,终结于理性,超出理性之外,不可能在人类心灵中发现任何更高级的东西来阐述直观材料并使其受制于思想的最高统一。” 这三种官能对康德来说有截然不同的功能。感性官能是直观的一个官能。知性的官能是判断和科学知识的官能。理性的官能,当恰当地运用时,在思想领域里执行一项批判和调节功能,但是,当超出其能力范围运用时,它将把思想引入黑暗的胡同或辩证的挫败之中。 心灵不是这些官能中的一个,它也不是这些官能的存在场所。在康德看来,心灵的观念似乎主要在一个集体的意义上有所指。它代表认知官能三方的统一和秩序。感受和意志的官能一一康德将它们加进他列举的“高级官能”中——属于“先验自我”,但它们并不落在作为先验结构的一部分的心灵之中。康德关于理性的思辨和实践使用的区分,以及他关于道德和审美判断的区分涉及心灵一一或其官能三巨头一一与其他官能的不同关系。 由于篇幅有限,书中更加全面的讨论无法展示。仅仅在“心灵”一章中,我们就得到了有关这一概念在思想史上的精华。《西方大观念》是美国不列颠百科全书出版公司出版的“西方世界的伟大著作”丛书的前两卷。书中收录了代表西方文化最主要特征的102个观念,如存在、民主、艺术、荣誉、科学、时间、真理等等。这些概念不仅在过去是伟大的,在今日它们依旧是人类思考的核心。 整部书内容包含四大块:102个观念章、扩展阅读总目、术语索引和“西方世界的伟大著作”60卷书目。前两大块合在一起,是读者的工具,可借以在每一个大观念的上下文中参与跨世代的伟大对话。 《西方大观念》可以看作一部问题集,大家所关心的“哲学问题”,差不多都包括在这里了。 点击图片即可购买 *本文图片来源网络与书籍页,侵权必删 不知道读什么?关注当当读书汇book每天读好书▼ 往期推荐 1、杨紫琼获奥斯卡首个亚裔影后:不被定义的人生,才是最高级的活法2、妍珍呐,你也一定很想看这份“复仇书单”吧3、郑和与哥伦布,谁的船队更气派?(文末福利) 近期活动 赞且在看  读好书 阅读原文
苹果加强对内部人工智能工具的管理
AI情感助手

苹果加强对内部人工智能工具的管理

据界面新闻报道,苹果公司已限制在公司内部使用ChatGPT和外部AI工具,原因是担忧员工可能泄露机密数据,同时也在研发自家的类似技术。此外,苹果也要求员工避免使用微软的GitHub Copilot。
苹果公司限制员工使用ChatGPT等AI工具,加强数据安全措施
AI情感助手

苹果公司限制员工使用ChatGPT等AI工具,加强数据安全措施

据apple公司消息,为防止机密数据泄露,公司将限制使用ChatGPT等AI工具,并 developing自主类似技术。然而,员工使用生成式AI可能引发安全问题,已有多起事件导致公司数据泄露。虽然OpenAI在苹果App Store推出了iOS版ChatGPT应用,但apple公司仍然对其保持警惕,并禁止员工使用微软旗下的GitHub Copilot。