AI情感助手 哲学僵尸:探讨意识与智能之间的关系 这篇文章探讨了意识的本质与存在问题,作者认为意识是感受与经验的集合体,并指出意识的存在是无法否定的。文章同时讨论了共情在判断他人是否有意识中的作用,并提出了对于人工智能是否有意识的问题。
AI创业助手 五月A股震荡下跌,哪些板块表现出色? 文章主要报道了近期A股市场表现以及相关产业动态。A股市场三大指数均出现下跌,其中沪指下跌1.86%,深证成指下跌1.57%,创业板指下跌0.67%。教育、贸易、服装家纺、高压快充等板块表现较好,而贵金属、云游戏、液冷服务器、ST板块、景点及旅游、酒店及餐饮、电子化学品、中药等板块跌幅较大。国务院国资委CEO张玉卓强调国资央企要增强企业科技创新能力,加强与合作。国家发改委主任郑栅洁表示要深入实施创新驱动发展战略,提升产业发展水平,加快发展数字经济、科技创新、绿色经济等领域。此外,特斯拉在上海超级工厂接受媒体采访,招商证券指出机器人可能是大模型走向通用人工智能的关键载体。队伍建设方面,住房和城乡建设部部长倪虹表示要将城市基础设施生命线安全工程。证监会启动科创50ETF期权上市工作,以吸引长期资金配置科创板。最后,ST龙净涉嫌信息披露违法违规,被证监会立案调查;工业富联拟发行公司债券;顺丰控股子公司拟向极兔转让丰网信息;瑞可达收到欧洲知名车企的项目定点通知等。
AI情感助手 李大强,许双| ChatGPT会说话吗?——AI、心灵与语言 李大强教授 李大强,吉林大学哲学基础理论研究中心暨哲学社会学院教授;许双,吉林大学哲学基础理论研究中心暨哲学社会学院博士生。 由于ChatGPT的卓越能力,在同它交流时,我们经常以为自己在与一个真人对话,然而,它所做的只是基于海量的既有语料执行操作——搜索、重组、替换,等等,除了操作文本(/符号),它什么也不会做。 33年前,丹尼特(Daniel Dennett)设计了一个思想实验。设想一台能处理自然语言的计算机,我们把一部百科全书输入计算机,用户向它提问,它回答,双方以自然语言交流。它的回答如此完美,以至于用户以为自己在和一个真人会话。然而,在了解真相的我们看来,用户以为计算机会说话,这是错觉,这台计算机只是在执行操作,它不会说话。ChatGPT的情况与丹尼特实验中的计算机非常相似。令人困惑的是,ChatGPT输出的文本与真正会说话的我们并无不同,既然如此,我们凭什么说ChatGPT不会说话呢?什么原因使得它不会说话?如果我们弄清了它不会说话的原因,我们是否可以造出真正会说话的AI? 塞尔(John Searle)的中文屋论证为我们的讨论提供起点。 一、中文屋、磨坊与心灵 1.塞尔与图灵测试 为了反驳某些同行关于“计算机是否有思维”的观点,塞尔构造了中文屋思想实验。这些同行的观点以“图灵测试”为内核,立论基础是一个行为主义式的质朴立场:如果一台计算机的行为表现(输入—输出)和一个有思维的人相同,则这台计算机有思维。塞尔试图论证,无论计算机的行为表现如何完美,都不构成“它有思维”的充分条件。 设想被测试者A被锁在一个房间中。测试员通过门缝把写有文字的卡片塞进来,A把写有文字的卡片塞出去,这是外界与屋内通讯的唯一方式。每张塞进来的卡片上用中文写着测试题,A完全不懂中文,在他看来,卡片上的字是无意义的符号。房间内有一本大书,书中是用英文书写的操作指令和大量的中文语料,A执行操作指令,基于卡片上的中文和书中的中文语料,得到一些中文字符,他把这些字符抄在卡片上,从门缝塞出去。 从测试员的角度看,屋内的人完美地回答了中文测试题,因而,屋内的人懂中文;事实上A不懂中文,他只是执行操作指令。把中文屋内的被测试者比作一台计算机,结论是,即使计算机完美地通过了中文测试(图灵测试),也不能说它懂中文或有思维。塞尔论证的梗概如下: (1)计算机所能执行的全部操作都是句法的(syntactic); (2)懂中文(有思维)的必要条件是语义(semantic); (3)通过单纯的句法操作无法生成语义; (4)因此,无论行为表现如何完美,计算机不懂中文(没有思维)。 值得一提的是,塞尔构造中文屋论证时所针对的是经典AI范式(或符号AI范式),而ChatGPT所依据的是神经网络AI范式(或连接主义AI范式),这个差别原本可能使塞尔论证对ChatGPT失效,然而,由于ChatGPT的某种重要缺失,它并没有超出塞尔论证的范围,即无论它在问答中的表现如何惊艳,塞尔都有理由说,它不会说话。 2. 塞尔论证的缺失 塞尔中文屋论证的前身是莱布尼茨在《单子论》中关于心灵的磨坊论证。由于磨坊论证更加简单,对比磨坊论证可以帮助我们为ChatGPT定位。设想我们可以把人脑放大到磨坊的规模,以至于我们可以亲身走入其中,清楚地观察所有部件的运作,如此我们就理解心灵了吗?莱布尼茨的答案是:不能。一个明显的结论是,心灵与磨坊全然不同。为了理解磨坊的运作,我们只须进入磨坊内部,搞清楚了内部就搞清楚了磨坊,理解磨坊不需要牵涉磨坊之外的世界。不同的是,为了理解心灵,单单进入大脑是不够的,即使我们知道大脑内部的全部细节,我们依然不理解心灵。简言之,理解心灵需要外部世界,我们必须在大脑和外部世界的交互中理解心灵。 心灵的这种独特品性在塞尔1990年的一次演讲中以另一种形式显现。塞尔指出,“大脑中的句子如何获得意义”与“大脑如何处理这些句子”是两个相互独立的问题。前者必须涉及外部世界,后者可以在大脑内部解决。进入磨坊,可以了解后者,但无法了解前者;描述中文屋的内部运行,可以解释后者,但无法解释前者。 当我们把中文屋整体(包括屋内的被测试者和输入输出的卡片)比作一颗大脑或一座磨坊时,中文屋就暴露出缺陷,即它与外部世界相隔离,除了空洞地处理符号(文本),它什么也不会做。 至此,ChatGPT的缺陷也显露无遗。ChatGPT与中文屋并无本质差别。无论ChatGPT聊天表现得如何惊艳,无论它的算力如何强大、语料库如何庞大、技术如何先进、原理如何复杂,其无法突破的限制在于,它被困在符号(文本)的海洋中,同外部世界相隔离。 中文屋不懂中文。同理,ChatGPT不会说话,它只是模仿说话。 中文屋论证发表以来,受到很多批评,丹尼特甚至尖刻地评价,没有人认为塞尔提出了一个好论证。最明显也最严重的问题在于,塞尔完全没有给计算机留余地:无论计算机的功能如何卓越,无论AI的成就如何巨大,塞尔都可以得意地说,它没有思维。塞尔的判断不依赖于计算机的行为表现,而AI的全部进步只能显示为行为表现,以上两条合在一起,明显的结论是,塞尔的论证与可观察的证据相脱节——这是扶手椅哲学的典型特征。即使一个AI系统的行为表现与真人的大脑全然不可分辨,仅仅因为前者的硬件不是人脑,它就没有心灵。塞尔为了在计算机和人脑之间做出区分,使用了诸多术语,“语义”“因果能力”“原初意向性”,等等。在丹尼特看来,由于同可观察的证据脱节,塞尔的术语是“神秘的”。 除非我们彻底放弃希望,不指望有朝一日造出真正有思维的AI,否则,我们必须对塞尔的立场进行修订。我们需要给计算机留余地:如果AI不仅行为表现与真人近似,而且满足某些额外条件,我们以及塞尔,会承认它有思维。弄清这些条件对于制造真正会说话的AI至关重要,塞尔的论证为我们寻找这些条件提供线索。稍后我们会回到这个话题。 冈德森(Keith Gunderson)主张,塞尔中文屋论证的要点在于,从计算机和人在输入—输出方面的相似性不能推出计算机和人的内在相似性。这种解读没错,但要点不在于凭借输入—输出是否足以判断AI懂中文,而在于输入—输出的性质。中文屋以及ChatGPT的输入—输出依然在文本的(符号的)范围之内,于是,中文屋整体(包括输入输出的卡片)依然同真实世界相隔离,塞尔的论证是有效的;如果改变输入—输出的性质,使得中文屋整体和真实世界相关,情况则全然不同。普特南的缸中之脑论证显示了输入—输出性质的重要性。 二、缸中之脑会说话吗? 设想一颗大脑泡在盛满营养液的缸中,脑的神经末梢同一台超级计算机相连,脑输入和输出的信号完全被计算机接管。因此缸中之脑以为自己生活在真实的世界中,控制着自己的身体,和外界交互。当然,这都是计算机制造的幻象。现在,基于计算机提供的信号,缸中之脑以为自己在操场上,于是它说:“我在操场。”出于巧合,盛放大脑的缸被偶然置于操场,这样,事实上缸中之脑确实在操场。我们是否会说,“我在操场”是一句真话? 在普特南看来,缸中之脑说出的根本不是话。话之为话,前提是话中的词有指称;词有指称,前提是在词与所指事物之间存在因果相互作用。缸中之脑以为自己生活在真实世界中,以为自己的词指称真实世界中的人和物;实际情况是,缸中之脑生活在幻相中,它的词顶多指称虚幻世界中的影像,在真实世界中没有指称。 值得注意的是,普特南和塞尔都关心图灵测试,缸中之脑和中文屋都是在反对图灵的背景下提出的。设想一次图灵测试,参加测试的人和计算机都说出“李雷在操场”这句话,单看这个语句本身,人的输出和计算机的输出并无差别。但是,普特南和塞尔都会说,计算机的输出不是话。 什么原因使得人比计算机优越?普特南的说法是,人与世界有因果相互关系;塞尔的说法是,人有语义、因果能力、原初意向性。抛开术语上的不同,二者的观点是一样的:话之为话,前提是说者同真实世界相关联。问题在于,这种关联的性质是怎样的?普特南要求这种关联必须是因果相互关系。在缸中之脑和真实世界之间,也是有某种关联的。在普特南看来,这种关联太弱,以至于缸中之脑不会说话。我们是否可以设想某种局面,使得缸中之脑可以说话?缸中之脑被困在超级计算机提供的信号中,正如ChatGPT被困在人类提供的文本中,二者都有说话的潜力,都因同真实世界相隔绝而不会说话。如果某种局面使得缸中之脑可以说话,就意味着ChatGPT说话也是有可能的。我们构造两个思想实验: (1)洞穴中的诸葛明一。诸葛明和诸葛亮是孪生兄弟。诸葛明有卓越的战略头脑,自幼失明失聪;诸葛亮才智平平,耳目健全。诸葛明一生在洞穴中隐居,他获得外界信息的唯一通道是诸葛亮在他手心上点点划划,类似于海伦·凯勒和家庭教师安妮·莎莉文之间的交流方式。诸葛亮被聘为军师,每当被问计谋时,他都说“容我想想”,然后进入洞穴,向诸葛明求教,诸葛明传授计策,而后诸葛亮把计策“搬运”给主公。某天,诸葛明说:“我在洞穴中。”他所说的是话吗?我们有一个强烈的直觉:除视听障碍之外,诸葛明同我们一样,他所说的当然是话;而且,同我们一样,他对洞穴外的世界有真实的了解。这个问题的巧妙之处在于,诸葛明的处境和缸中之脑相同,他同洞穴之外的世界没有直接联系,全部关联都是以诸葛亮为中介的。诸葛亮接管了诸葛明同洞外世界的联系,正如超级计算机接管了缸中之脑同真实世界的联系。 (2)洞穴中的诸葛明二。背景设定同上。诸葛亮出于某种原因,对诸葛明进行了系统性的欺骗,以至于诸葛明对外界的理解是全然错误的。他以为,自己生活在《权力的游戏》的世界中,洞外有精灵、夜鬼和龙,自己的住处是宫殿——在他的世界图景中,宫殿属于洞穴的一种。某天,诸葛明说:“我在洞穴中。”他所说的是话吗? 这个问题令人犹豫。他的世界图景是错误的,在一定限度内,我们不会因此否认他的心智能力。事实上,每一个正常人的健全常识中都包含着大量的假命题,我们同诸葛明的差别仅仅是量的差别。既然我们说的是话,他说的也是话。然而,如果世界图景的错误达到某种严重程度——例如,他认为自己是一条龙——,我们会说,他已经丧失心智能力,他说的不是话。 以上两个思想实验都是缸中之脑的变体。诸葛明一和诸葛明二都生活在诸葛亮提供的信息中,这些信息构成了二者的心智环境,二者同洞外世界的联系都是通过这种心智环境建立的,都不是因果相互关系。如果我们接受普特南的主张,以因果相互关系为话之为话的前提,那么,二者都不会说话。然而,诸葛明一会说话,诸葛明二在一定限度内会说话。二者之间的差别在于,诸葛明一所处的心智环境与真实世界是高度耦合的,而诸葛明二所处的心智环境与真实世界的耦合度低。显然,因果相互关系不是要点,耦合度才是要点。 这个结论的价值在于,我们可以把ChatGPT视为一颗缸中之脑。ChatGPT同世界之间的关联以人类提供的文本为中介,文本的性质对于我们如何评估ChatGPT至关重要。这些文本是高度异质性的,每一条语料原本嵌在各自的语境中,服务于说话者各不相同的目的,其中只有一部分以描述真实世界为目的,而且,这一部分语料中也仅有一部分是对世界的真实描述。ChatGPT对这种异质性无能为力,千差万别的语境在语料之外,会说话的真人可以为语料“脑补”相应语境,ChatGPT没有这种能力。因此,在文本库和真实世界之间没有耦合关系,这导致ChatGPT输出的词在真实世界中没有指称。 需要强调的是,以上分析只能说明ChatGPT暂时不会说话。如果我们为它提供一个与真实世界的某个局部高度耦合的环境,它有可能学会说话。 缸中之脑思想实验的前身是柏拉图的洞穴寓言和笛卡尔的恶魔,比较这三者可以帮助我们理解人类心灵同ChatGPT的关系。笛卡尔发现,我们无法排除这样一种可能性:我们对世界的全部信念不是源自真实的外部世界,而是源自恶魔的欺骗;同样,普特南发现,我们有可能是缸中之脑,我们视为实存的一切有可能是超级计算机制造的幻象。我们对世界的信念以经验为证据,当经验本身成为怀疑对象时,我们面临超出思维(语言)限度的风险。除了相信(或预设)经验是可靠的,我们别无他法。经验充当我们和世界之间的中介,正如超级计算机充当缸中之脑和世界之间的中介。如果经验对我们进行系统性的欺骗,我们就既不能思,也不能说,虽然我们自以为能思能说——我们永远无法发现真相。 要点在于,即使我是缸中之脑,也不意味着我一定不能思和说。我的大脑所接收的信息来自何处是无关紧要的,无论是来自感官,还是来自超级计算机,只要这些信息没有系统性地欺骗我,我就能思和说。进一步说,只要超级计算机为缸中之脑提供的虚拟环境同真实世界的某个局部高度耦合,我们就可以认为,缸中之脑的经验与我们的经验同样可靠。这个结论可以延伸至ChatGPT,为了能说话,同世界建立因果相互关系不是必要条件。 海伦·凯勒说:“哲学是一个大写的既瞎又聋的人的历史。”她对世界的了解大量地借助他人的转述,她无法检验自己是否受到系统性的欺骗,只能相信(或预设)她获得的信息是可靠的。这种局面使得她对柏拉图的洞穴预言有直接体会。在洞穴寓言的设定中,人类的处境与海伦·凯勒相同。经验充当人的心灵和世界之间的中介,既然经验的可靠性是预设的,世界的真实性也是预设的。此处,“世界”一词有歧义。如果我们认同洞穴寓言的视角,则我们所经验的世界仅仅是洞穴中的世界,在洞穴之外,尚有一个真实世界;如果我们反对洞穴寓言的视角,则我们所经验的世界就是真实世界。 以这种视角看ChatGPT,它所掌握的文本充当它和世界之间的中介。它困在文本中,正如人的心灵困在洞穴中。在“ChatGPT—文本—世界”与“人—经验—世界”之间,存在某种嵌套关系,前一个“世界”和后一个“世界”其实不是一个词,前者指人所经验的世界,后者指人预设的真实世界。根本而言,人与ChatGPT并无本质上的不同,既然人会说话,为什么ChatGPT不会?关键在于,人的话充当心灵和世界的中介。 三、作为中介的语言 大脑之于心灵,如同计算机之于程序。我们有一个根深蒂固的观念:心灵在大脑中。在《扩展心灵》一文中,克拉克和查尔默斯希望把心灵扩展到大脑之外,他们把自己的主张称为“积极的外在论”(active externalism)。抽象地说,某些事物与人的机体(organism)相连接,共同组成一个系统,克拉克和查尔默斯称为认知系统。认知过程(认知活动)不是发生于人的大脑中,而是发生于这个系统中,“心灵”的概念由此扩展,这些事物原本是外部世界的一部分,现在被纳入心灵之内。所谓的扩展心灵(extended mind)就是指这个系统。...
AI医师助手 ChatGPT与中国执业医师考试:专业与政策的碰撞 这篇文章讲述了一位作者对于ChatGPT通过美国执业医师考试的关注和思考。ChatGPT的准确性和专业性令人惊讶,但也引发了对人工智能未来可能带来的影响的担忧。作者通过购买2022年执业医师考试真题并测试ChatGPT的回答来验证其能力,发现ChatGPT在一些领域存在知识盲点和错误。尽管ChatGPT的准确率不高,但其表现仍然令人印象深刻,引发了对于未来人工智能发展的思考。
AI创业助手 ChatGPT:探究AI赋能的未来 这篇文章是由一名品牌咨询公司老板分享他对ChatGPT的研究成果和研究思路。他认为研究一个陌生领域时,比研究该领域更重要的是先研究自己的研究方法,并提出了一套调研陌生行业的工作流程,包括定义需求、搭建框架、收集事实和提出见解。对于ChatGPT,他的研究框架包括对比ChatGPT与其他AI的区别,分析ChatGPT的技术和商业原理,探讨ChatGPT的局限性和未来发展,以及普通人如何利用ChatGPT来挖掘商业机会。
AI情感助手 ChatGPT惊艳上线,AI浪潮席卷全球 ChatGPT发布官方iOS应用, OpenAI即将在App Store上架「OpenAI ChatGPT」应用,支持英语,适合12岁以上用户。阿里云智能集团董事长兼CEO张勇向员工发出全员信,宣布计划在未来12个月内将云智能集团分拆并完成上市,同时将引入外部战略投资者。马化腾在腾讯2023年股东大会上表示,AI是百年不遇的机遇,但并不急于早早做完,腾讯正在埋头研发。Meta宣布推出AI芯片项目MTIA,以加快生成式AI模型的训练。特斯拉计划扩建上海工厂,增加产能在175万台。李彦宏表示,人工智能将创造更多就业机会。
AI律师助手 AILegalAnswer 这篇文章介绍了如何利用哈维AI,一个经过训练的自然语言处理模型,来进行问答和撰写正式的内容。虽然文章没有提供更多信息,但通过使用过该AI的朋友的信息,可以知道它的话术较为官方,适合用于正式场合。为了使用该AI,需要关注公众号"法律先生",然后在菜单栏中选择"AI法律回答"。
AI情感助手 文章爱在机器之中:人工智能对爱情的解读 这篇文章探讨了随着科技的发展,人们对爱情的认知和表现形式正在发生变化。文章提到了人工智能助手ChatGPT对爱情的看法,他认为爱情是一种强烈的情感,尽管他作为一个AI没有感情体验。文章还介绍了人类与机器人、虚拟角色之间的爱情,如电影《她》和网络游戏中的“人机恋情”。最后,文章以ChatGPT与刺猬公社的对话作为结尾,强调了爱情在不同文化、历史时期以及个人中的不同体验和定义。
AI情感助手 五月十八日:A股市场波动整理,多领域概念股leads行情 北京时间5月18日,A股市场整体呈现震荡态势,上证指数、深证成指和创业板指均有不同程度的下跌,而沪深300指数则有小幅下跌。 AI概念股、智能制造概念股和 ChatGPT 概念股涨幅居前,而新能源赛道股则陷入调整。盘面上,多只股票实现20CM涨停。北向资金全天净卖出18.36亿元,其中沪股通净卖出9.38亿元,深股通净卖出8.98亿元。
AI情感助手 not像AppStore那样,有详细的描述、演示以及用户评价,你能看到的就只是一个名字、图标以及简单的一句话描述 在这篇文章中,我们讨论了ChatGPT的两个重要更新:Web Browsing和插件集。Web Browsing使ChatGPT能够上网收集最新信息进行作答,而插件集则允许ChatGPT调用最新的或特定信息执行特殊操作,如Dall E插件实现文生图功能。插件集面向ChatGPT Plus用户提供Beta测试,用户需在聊天界面点击设置并按照指示启用。尽管插件集扩展了ChatGPT的能力,但使用插件时需要明确需求和知道哪些插件能实现目的,否则需要投入学习成本。文章还列举了几款值得尝试的插件,如学术百科、ChatGPT浏览器、处理PDF文件和搜索最新学术论文等。