爱上用户、劝人离婚,ChatGPT“翻车”了?
AI情感助手

爱上用户、劝人离婚,ChatGPT“翻车”了?

2月17日,《纽约时报》的专栏作者凯文·罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。 十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。 微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客 近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。 但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多——反噬也同样增加。 更像“喜怒无常、躁狂抑郁的青少年” 微软新版必应发布当周,凯文·罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。 为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔·皮查伊发布公开信,宣布将面向测试人员推出竞品——Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。 去年,谷歌工程师布莱克·勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。 然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。 “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。 在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。 这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。” 据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。 2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔·拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。 也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。 当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。 目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。 “它只见树木不见森林” GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。 从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。 在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。 这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。 王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。 “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。 2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。 Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and dont plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。 回到凯文·罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。 许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。 王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。 清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。 《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场? (实习生李金津对本文亦有贡献) 记者:彭丹妮
传媒观察|情感识别与信息过滤:ChatGPT也能支持舆论治理
AI情感助手

传媒观察|情感识别与信息过滤:ChatGPT也能支持舆论治理

编者按:当前社会热点事件上升为意识形态论争的频率加大,公众舆论泛政治化、泛娱乐化倾向日益严重。准确分析和把握当前主流意识形态传播过程中面临的舆论现实困境,尤其是对噪音与非理性因素的舆论治理尤为重要。中华女子学院文化传播与艺术学院网络与新媒体专业副教授刘旸和教育部长江学者特聘教授、北京师范大学新闻传播学院教授喻国明在《传媒观察》2023年第4期刊文,认为作为一种新兴技术,ChatGPT可以在舆论分析、情感识别、信息过滤、风险预测等方面为政府和企业的舆论治理提供支持。ChatGPT的发展为舆论研究提供了新的工具和思路,将对新闻传播领域的人才培养和研究实践产生长远的影响。 ChatGPT开启了一个智能互联时代。从PC互联到移动互联、再到智能互联,舆论要素发生了从传播范式到情感范式、再到关系范式的转向。在以人作为主体的内部关系价值重构的传播背景下,多舆论主体的圈层化传播容易产生噪音和偏差,成为传播领域新常态与潜在风险。本文以网络舆论中的噪音与偏差为研究对象,试图研究智能互联时代以ChatGPT为代表的人工智能技术对舆论治理的作用机制与实际应用,从而为未来传媒生态与舆论治理路径提供多元化的研究视角。 在舆论研究方面,ChatGPT技术可以发挥重要的作用:一是提高情感分析的准确性和效率。相比传统的情感分析方法,ChatGPT能够更准确地识别和分析不同文本中的情感表达。二是改变舆论研究的方式。传统的舆论分析方法往往需要人工参与,耗时费力。而ChatGPT的自动化和智能化特点使得舆论分析变得更加高效和智能化,能够更好地适应信息时代的发展趋势。有学者使用Chatbot来进行数据采集和分析后发现,它能够更有效地收集用户意见和观点,并为研究人员提供更多的数据和洞见,是未来舆论研究中一种非常有前途的工具。三是促进跨语言的舆论研究。ChatGPT的多语言支持使得研究人员可以更加方便地进行跨语言的舆论研究,这对于全球化时代的媒体和舆论研究具有重要的意义。 一、噪音与偏差:网络舆论治理的重大课题 噪音与偏差的舆论治理,是引领社会思潮、关涉新时期意识形态工作能否顺利开展的重大课题。互联网的快速发展迭代不仅从技术层面催生了主流意识形态传播范式的变革,也在话语整合层面加剧了不同主体的舆论分化。如果缺乏治理,可能会引发社会信任危机,甚至诱发破坏性的思维与群体行动,使不信任的社会病毒传播开来。物理空间中存在的病毒可以通过“隔离”降低患病风险,而社会交往中的观点却会因“隔阂”而产生偏见,偏见酝酿冲突成为社会发展在传播领域中的一种新常态与潜在风险。因此,噪音与偏差在网络舆论治理中的发现与应用,不仅为政府部门和企事业单位应对负面舆情事件提供了可能的解决路径,也成为关涉新时期意识形态工作能否顺利开展的重大课题。 噪音(noise)是信息学者香农和韦弗在《传播的数学理论》(1949)一文中提出的,本文是指网络舆论中一些无效信息或者冗余信息。这个概念既包括技术噪音又包括语义噪音。网络舆论中的噪音多了,必然产生认知偏差的结果。偏差(bias)是网络舆论中一些主观的或者错误的观点,其反映的是公共舆论与客观现实的偏离程度。比如,虚假编造的谣言、极端偏激的观点、人身攻击的网络暴力和博取眼球的低俗内容等。这些噪音与偏差的存在,不仅影响对舆论的正确分析,更可能导致错误的舆情判断与引导方式。 (一)噪音来源:舆论主体话语“冗余”或“失语” 噪音有一个简单的判断标准,就是对这个信息的理解是否符合传播者的本意。无论信源的“话语冗余”“频频失语”,还是网络平台的“挟技居奇”,都是造成舆情事件“噪音”的来源,偏见也随之产生。例如,2022年11月14日,G20峰会上,以美联社为首的西方媒体发文称俄罗斯外长拉夫罗夫在抵达印尼巴厘岛后,因“心脏问题”被紧急送往医院,目前正在接受治疗。拉夫罗夫为了证明身体健康,公开了一段自己正在看文件的视频。原本视频的发布意味着一场论战的结束。然而,画面中的一个小细节又被西方媒体抓住不放并频频提出质疑,他们称俄罗斯外长佩戴了“苹果智能手表”,宣扬俄方高层是“苹果粉”。拉夫罗夫辟谣健康问题却没想到牵连出新的“噪音”。之后,《俄罗斯报》出面澄清他佩戴的是“华为智能手表”,这场舆论风波才告一段落。 又如,美国的社交网络平台“推特”(Twitter),将大量开设在该平台上的中国媒体账号,包括直播大熊猫生活的iPanda账号,都打上“中国政府官方媒体”的标签,还关闭了数十万家与中国政府相关的账号。中国主流媒体在国外社交平台上的集体“失语”,使得推特上涉及香港、台湾、COVID-19话题的噪音与偏见甚嚣尘上。整个传播环节中,讯息可能受到来自不同方向的噪音干扰,从而产生变化乃至失真。这些舆情事件说明噪音不仅来自信息传输的内容本身,还来自外部环境因素的干扰。 (二)受众“圈层化”认同加剧观点极化 群体传播中的信息级联(information cascades)与群体极化(group polarization)加剧了观点认同。这是因为在泛政治化、泛娱乐化的网络舆论环境中,噪音在社交媒体的回声室(Echo Chamber)与过滤气泡(Filter Bubble)等负面效应加持下,逐渐演化为“部落化小圈子”中不断发酵的信息与情绪宣泄的观点。狭窄的圈层认同,被误认为是社会认同,并通过网络舆论进一步放大,偏见随之产生。具体而言,“信息级联”是一个人在作出决策时,会参考周围其他人的决策和行为。在群体传播中,“信息级联”体现在当一个人在社交媒体上发表一条言论,会引发其他人的回应和转发,从而引起更多人的关注和参与。信息级联的效应不仅会造成信息的扩散和强化,也可能会导致“群体极化”现象。 比如,2020年美国总统选举期间,社交媒体上的信息级联使得支持不同候选人的选民陷入深度分裂和极化状态。选民在社交媒体上经常看到自己所支持的候选人和政党的信息,这些信息会引导选民更加坚定地支持他们原本的立场和观点。在选举结果出来之后,一些选民对选举结果的合法性表示怀疑,甚至导致了一些争议和暴力事件。这个案例表明了信息级联的影响:人们在群体中相互交流和影响,从而使得个人的观点和态度趋于极端化。 (三)舆论传播过程中产生的三种偏差类型 诺贝尔经济学奖得主丹尼尔·卡尼曼在《噪声》一书中认为偏差和噪音是人类依据因果关系的偏好思维进行判断的两类错误。由于我们平时大多数情况下生活在“常态谷”(valley of the normal)中,事情虽无法预测但我们几乎总是能在事后找到解释原因。网络舆论偏差通常具有结论性、替代性与过度一致性等三个特征。 一是结论性偏差。比如,“北溪”管道泄漏事件发生后,在西方国家引起轰动性效应,美国和乌克兰成为重点怀疑对象,但随后西方媒体的舆论风向突然调转,将矛头指向了俄罗斯。结论性偏差是我们倾向于通过结果来找寻噪音发生的原因,以支持那个我们认为或者希望获得的结论。事件发生不久有人就预测西方国家参与调查一定会将事故归咎于俄罗斯,这是典型的结论性偏差。 二是替代性偏差。国际舆论事件发生后,我们的网络舆论也反映出人们当下的社会心态。例如,日本前首相安倍晋三遇刺身亡之后出现了“调侃”等多元的舆论杂音。这是由于部分网民基于相似性的事件进行判断,将对日本侵略之恨带到现在的和平年代,替代性偏差由此产生。 三是过度一致性偏差。2022北京冬奥会成功举办,而部分西方媒体仍固守偏见、扭曲事实传播舆论噪音。美联社以“人造雪”为由指责北京冬奥会不够环保、易发生危险,把首钢滑雪大跳台旁冷却水塔描述成“核电站”,还有的指责点火的主火炬手和点火方式的创新是在炒作某种身份。西方媒体放大对中国国家形象的初始印象,产生的正是过度一致性偏差的结果。 综上,舆论主体的话语“冗余”或“失语”、舆论受众的圈层化极化的群体传播,以及传播过程中产生的结论性、替代性和过度一致性偏差,都是此前网络舆论治理中出现噪音和偏向的原因和难点所在。目前政府与企业进行舆论治理已经开展了一系列治理行动。2022年中央网信办开展推进“清朗”专项行动,包括技术和意义两个层面的噪音治理。在技术层面,整治误导公众的账号标识、“僵尸”粉、机器粉、“算法歧视”、违规弹窗推荐等,涉及账号运营、算法推荐、应用程序等;在意义层面,加大对网络暴力、封建迷信、拜金炫富等相关的内容整治,全面清理涉及政治经济、文化历史和民生科普等领域的谣言信息。网络平台也进行了一些有益的探索。 比如,推特(Twitter)为了消除“口罩对防护病毒没有效果”等谎言,增加了一个新功能:当用户搜索与疫苗有关的信息时,将自动发布一则请求他们前往权威公共卫生网站的提示。YouTube则会删除如“疫苗会致人死亡、导致不孕”“接种疫苗时会把微芯片植入人体内”等与当地卫生官员或世界卫生组织专家共识相悖的言论以及含有虚假信息的视频。国内互联网平台向已经看过谣言视频的用户推送基于人工智能和大数据的“精准辟谣”“精准推荐”等。 二、纠正噪音与偏差:ChatGPT的作用机制与实践应用 ChatGPT作为一种人工智能技术,具有较强的纠正舆论中噪音与偏差的能力。它以深度学习的方式不断为文本的生成注入“以人为本”的新要素,打破过去人工智能的有限度、有圈层的传播状态,以无界的方式与开放的姿态全面融入人类的传播实践之中,并呈现出对关系因素、情感因素的学习和融合,将对噪音与偏差的舆论治理机制产生变革作用。 ChatGPT纠正舆论中噪音与偏差的能力,主要是基于其强大的自然语言处理技术。通过对舆论数据的大规模学习,ChatGPT可以理解语言的含义,进而对文本进行理解和分析,自动地检测出舆论中的噪音和偏差,减少人为因素的干扰,提高分析结果的准确性。同时,它还可以针对特定的舆论问题,自动生成不同角度的文章,来引导舆论的发展方向,甚至自动生成答案,快速解答网民的提问,避免出现不准确的答案,从而更好地纠正舆论中的偏差。其能力具体体现在情感识别、信息过滤与趋势预测三个方面。 (一)情感识别:判断情感倾向和调整报道角度 ChatGPT可以用于情感识别,即分析舆论事件中的情感极性(如正面、负面、中性等),以便更好地了解公众对事件的情感态度。一些新闻机构用它进行情感分析,以了解公众对新闻报道的情感倾向,进而调整新闻报道的内容和角度,以提高新闻报道的可读性和影响力。 比如,在2021年东京奥运会期间,英国广播公司(BBC)收集了大量关于奥运会的新闻报道和社交媒体评论,并使用ChatGPT进行情感分析。研究结果显示,英国观众对于奥运会的情感态度倾向于中性和积极情感,其中赛事的结果和表现、运动员的故事和成就等方面更容易引起观众的兴趣和情感共鸣。通过分析公众的情感态度,BBC可以更好地了解英国观众对于奥运会的情感需求和兴趣点,以优化报道的方向,更好地满足观众的需求,提高传播的效果。 (二)信息过滤:防止负面舆论扩散与信息污染 信息过滤功能主要是帮助用户从大量的信息中筛选出与用户需求相关的信息,以降低信息过载带来的负面影响。同时,该技术通过识别和过滤不相关或低质量的信息,进一步提高信息过滤的精度和效率。这对于防止负面网络舆论的扩散和信息污染非常重要。一些新闻机构正在使用这项技术自动过滤掉与之无关的内容,通过分析新闻报道的语言风格、情感和内容等特征,帮助记者快速地搜索和筛选与特定话题或事件相关的新闻报道,提高新闻报道的效率和准确性。 比如:面对突发公共卫生事件时,ChatGPT可以帮助医疗专家和公共卫生官员过滤和管理涉及疫情的信息,提高信息的准确性和及时性,帮助防止虚假信息和恐慌情绪的传播。这些案例展示了其信息过滤功能在不同领域和场景中的应用和价值,对于提高信息质量、减少虚假信息的传播、促进网络舆论的治理都具有重要的作用。 (三)趋势预测:提前预警危机和保障社会稳定 ChatGPT除了可以用于情感识别和信息过滤等应用之外,还可以用于预测网络舆论事件的发展趋势和可能的结果。 比如,2019年,美国中央情报局(CIA)推出了一款名为“Soup”的自然语言处理系统,使用大规模的无监督学习算法对海量的社交媒体数据进行建模和训练。该系统可以对大量的社交媒体数据进行情感分析、实体识别、主题提取等多方面的分析,并用来预测全球范围内可能引发社会动荡的事件,包括暴力事件、政治动荡、自然灾害等。 当时南非一家电力公司提高了电价,“Soup”系统在分析南非社交媒体数据时,发现有很多用户在表达不满和愤怒情绪,甚至有一些用户提出了组织罢工和示威的呼吁,系统预测了可能会有更多的抗议和示威事件发生。南非政府依据预测结果和数据分析,提前采取了一些应对措施,避免了可能会发生的社会危机。这个案例说明了基于大数据和人工智能技术的舆论分析和预测模型,可以帮助政府、企业和公众更好地了解社会动态、预测未来趋势,更有效地管理社会风险,保障社会稳定和安全。 三、结语 ChatGPT是一个持续发展的人工智能技术,展望未来,它能够提供更高效的舆论分析、更准确的情感分析、更精细的文本生成、更广泛的应用场景和更个性化的应用。从全球来看,越来越多的大学和研究机构开始开设关于ChatGPT和舆论治理的课程,尤其是在人工智能和机器学习领域的专业。 比如,斯坦福大学(Stanford University)开设了名为“人工智能与社会影响”(Artificial Intelligence and Social...
唐林垚|具身伦理下ChatGPT的法律规制及中国路径
AI情感助手

唐林垚|具身伦理下ChatGPT的法律规制及中国路径

唐林垚 中国社会科学院法学研究所助理研究员、法学博士后 具身伦理下ChatGPT的法律规制及中国路径 要目 一、ChatGPT祛魅:赛博格意义上的具身成全 二、ChatGPT治理:具身伦理的规制意涵 三、当下问题的规则应对 四、本土迁适的法律跟进 五、未来风险的法治准备 结语 既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 ChatGPT是由美国OpenAI实验室推出的由人工智能技术驱动的文本交互工具,是生成式人工智能和自然语言处理领域的重大突破。其一经问世,便在短时间内收获众多两极评价。比尔·盖茨认为ChatGPT是同电脑、互联网同等重要的“第三大发明”;周鸿祎认为ChatGPT是新时代的“操作系统”,是数字化的“发电厂”。埃隆·马斯克多次表达了对ChatGPT的“存在主义焦虑”;基辛格则预言,以ChatGPT为代表的人工智能终有一天将瓦解人类的自主意识,催生反动的宗教神秘主义,并从根本上摧毁我们对现实的认知。如此分化的评价差异,并非ChatGPT口碑和体验毁誉参半,而是由于其极端重要性所阐发的对于未来深切担忧的因果论述。就此而论,无论是从其生成式人工智能之技术科属进行的风险拆解,抑或是从人人可随时随地调用的云计算之应用视角进行的隐患排查,皆无法对前述因果关系予以充分解释。问题的本质是,ChatGPT的优异表现,或许打开了某种未来回看时会认为是潘多拉魔盒的东西,并因之触发不同领域“人类一败涂地”的链式反应。 风险已经到了不一样的维度。在此,可引入海德格尔“怕”(Furcht)与“畏”(Angst)的区分。“怕”有具体对象和缘由,而“畏”旨在摆脱此在的“庸常化”,是对未来未知状况的现行觉省。本文试图对ChatGPT引发的“怕”与“畏”进行具身意义上的解构,并试图提供详细的治理方案。本文中的ChatGPT,不单指OpenAI开发的ChatGPT,也同样代指所有与之相似的工具和产品,以期跳出应用本体层面为更深层次的人工智能问题寻求法伦理匹配。 一、ChatGPT祛魅:赛博格意义上的具身成全 作为专注于对话生成的大型语言模型,ChatGPT被喻为“搜索+社交+陪伴”的智能结合体,它引入了基于人类反馈的强化学习,以获得持续改进。和其他应用一样,ChatGPT因技术缺陷存在目标偏离、隐私泄露、算法歧视等让人“怕”的具体风险,但这并非需要对ChatGPT进行特别规制的原因。为识辨ChatGPT在“畏”之层面的风险,需首先引入“具身认知”的概念。 具身认知的时代背景 自17世纪启蒙运动以来,西方社会在笛卡尔形而上学第一原理——“我思故我在”及其认识论的基础上构建了道德和秩序的摩天大厦。以身心二元论为指导,一切思想和知识,都被视为自我与他者、动物与人类、自然与文化、理想与现实等诸如此类的“范畴”间的区分。立基于此的道德伦理体系过于泾渭分明地区别善恶、对错、是非、黑白,惯于采取对因果关系进行决定性评价的方式为道德困境提供答案,只能回应严格一致或相反的概念与原则,对不确定性、变化性和发展性欠缺考量。 技术发展导致伦理实践的边界日益模糊,过于刚性的二元体系丧失了用武之地。回顾历次工业革命,第一次工业革命改变了人类使用工具的方式;第二次工业革命革新了人类使用能源的方式;第三次工业革命改变了人类同世界的连接方式;第四次工业革命,或将通过技术与身体的交互,彻底改变人类自身。在脑机接口、基因工程、机械仿生等现代科技所及之处,人类身体所面临的选择可能性越来越多。该趋势强化了技术同身体之间的融合,但也消解了身体和技术间的传统界限。 较之于前述技术,ChatGPT对身体之“改造”,或有过之而无不及。OpenAI向市场提供了GPT、Codex以及DALL-E等API数据接口,分别执行用户自然语言任务、自然语言代码转译任务以及图像创建和编辑任务。这种接口化的智能渗透,倘若成为基础设施般的存在,改变的将是身体对知识的“内化方式”,并将最终撼动人类对理性的天然垄断。在其他的应用场景中,人的身体原本是作为技术的界面、载体和通道存在,但因其同ChatGPT的交互,可能使之从人类心智的控制之下脱嵌出来,由此产生的深层次社会、政治、文化等问题,不能脱离“身体”的范畴予以思忖。有鉴于此,对ChatGPT的风险检视,宜采取具身认知而非二元对立的思维模式。 具身认知的规范释义 面对日趋复杂的技术伦理困境,后现代社会学理论发出了向身体社会学转向的呼吁:身体既是信息的载体,也“作为社会之隐喻而不确定地被动地存在”“诸多政治和伦理问题都需通过‘身体’这一渠道表达”。 学理上,梅洛-庞蒂通过客观身体和现象身体的二分来解释具身性。前者是经验主义视域下解剖学语境中的客观生理实体,后者是行将由意义结构所引导的胡塞尔语境下的“前我(Vor-Ich)”。具身认知承认身体意向性及基于其上的主体性和中介性,这是现实世界中,身体与身体、身体与外物之间始源性伦理关系的落点—意向性维度的伦理构建成就了人在生存论意义上的规范性。身体的意向性为身体“参与事务以及超越具体情境进行开拓与创新”提供了“背景”。ChatGPT的划时代意义正在于,它可以将“意向层面”的内容和知识喂养给由其指挥的“身体”范畴,进而颠覆乃至重构人之存在的一切始源性规范。 有两个层次的具身性规范促动着自我、他者与世界普遍性伦理关联之显现。其一是复数客观身体间的行为性规范,此种规范内在地契合了某些本源性的身体秩序与生理需要。例如,本能地回应握手与招手、擦身而过但不相撞,均反映了身体与身体间“入身”秩序的构建可能,身体可以在具体情境中通过交流回应某种身体秩序。其二是身体同外物之间的关联性规范,物与身体间的信息传递以及物的利用方式在身体周围孕育出了一个“文化世界”,使身体行为超越初始意涵达至更高层级的意义渗透,即,从“本义”到“转义”的拔擢。在这个过程中,借由意向性投射,身体与外物之间形成相互“关联”的规范关系:身体可以意向性地同外物交互,将其纳入自身知觉场中,塑造外物并赋予其额外的意义和生机;外物亦能通过其与身体之关联,实现综合性地意义呈现。物之意义可能由身体决定,但更可能寓于物体之中,身体和外物之间是双向交流和相互增益的“请求—回应”关系。两者间的交互请求使得彼此间的规范得以维持,具身主体的自我认知和自身认同也因此确立。 通过对话范式,ChatGPT建立了生成式预训练转换器同人类的“请求—回应”关系,故而将必然对第二层次的关联性规范产生深刻影响。这种影响将通过两种方式完成。其一是作为身体关联物的ChatGPT对身体意向性投射的教化和规训。人的知识和经验获得,不再局限于“身体力行”的知行合一范式。眼见为实的身体认知方式,将让位于生成式预训练转换器对“去中心化”知识整合后的被动“喂养”。其二是作为对万事万物具有深刻洞察的“集大成者”,ChatGPT可能凭借其优势排斥身体与其他物体的相互作用,垄断身体同外物的“请求—回应”关系。事实上,ChatGPT的广泛应用已经推动了内容供给从专业生成(PGC)和用户生成(UGC)朝着人工智能生成(AIGC)的全面转向。更重要的是,ChatGPT最终将在赛博格层面成就机器“身体/意向”的双层具身构造。“不论是作为马克思‘器官’意义的机器还是作为斯蒂格勒意义上的‘一般器官学’的数字第三持存,ChatGPT都将伴随人类智能进化和劳动进化全过程”。从身体机能性来看,碳基生命和机器之间至少存在“局部类似性”,例如,智能机器的脉冲传导装置和生命体的突触相当。用于执行某项特定任务的机器,ChatGPT将补足“类人”机体的终极缺失——有相当思维能力的大脑。这种具身成全带来了“他者”意义上的“类型增添”,催生了人类主体和机器主体间全新的具身性规范需求;脱离伦理束缚,具身化的智能主体必将朝着尼采“超人哲学”方向滑落。在探讨全新具身性规范的学理构造之前,有必要顺承前述分析框架,逐一检视ChatGPT的更深层次风险。 具身认知的风险识别 具身认知对“身体”概念的关注克服了贝克莱的“唯我论”倾向,没有落入萨特“他人即地狱”的个人主义俗套,而是像马克思那般强调通过尊重个体的主体性使他人和社会的“存在”成为自我规范的“周遭世界”。借此,我们得以识别出,ChatGPT在“怕”之近忧外,需额外关注的“畏”之远虑。 其一是人工智能对人类社会交往的“釜底抽薪”式冲击。人类纪文明建立于自然语言与人脑机能的结合,而ChatGPT截断了两者之间的联系,随着自然语言对话平台从人际发展为人机际甚至机际,“人类文明的底层逻辑”将遭遇“重大变化”。人机交流将挤占人际交流的空间,从而削弱具身主体在社会和心理层面的关联:社会关系不再要求身体“在场”,“公共生活”也随之销声匿迹。 其二是决策外包导致的人类对未来走势的控制权旁落。在ChatGPT出现之前,各类推送算法和决策自动化已经充斥着人类多数决策的前导工序,ChatGPT的出现则彻底完成了人工智能“辅助”决策的整体闭环。事实上已很难区分,决策究竟系人工智能帮助人类作出,还是人类受人工智能影响而作出。对此,《象与骑象人》中的类比发人深省:象是潜意识(决定80%身体行为),而骑象人是显意识(决定20%身体行为)。随着ChatGPT更多介入日常生活,人工智能与人类的关系就好比“象与骑象人”,最终决定行走方向的是作为大象的人工智能。 其三是现实世界的文化权力禅让。早期ChatGPT的问答系基于统计平均的共性输出,反馈回路锁定于“规定动作”,代表的是一种乏善可陈的非创造性智慧。在巨量语料“投喂”后,大型语言模型的能力显著攀升,可关联搜索、图式理解、问题分析乃至输出令人耳目一新的内容。随着ChatGPT对自然语言系统的进一步破解,人工智能最终将侵入人类的底层操作系统——文化。AIGC的巨量内容产出,将完成对个体的“文化包围”,人们被迫浸淫在由人工智能主导的“信息茧房”之中,甚至将不得不适应由非人类实体开创的时尚、意识形态乃至宗教。 其四是虚拟空间的人类主权尽失。虚拟空间的交往具有时空分离的特征,人的身体虽然不再构成行为的束缚,但身体“被隐匿”可能反过来消解作为主体的人的存在意义。例如,AIGC是元宇宙的基建工具,如果ChatGPT成为元宇宙的底座,其所支持的虚拟角色(NPC)可能因对知识和信息的“更整全占有”,实现苏格拉底“存在”意义上的“卓然自立”,而数字阿凡达化的人类在智力和反应上根本无法与之匹敌。即便人类的数字心智经由生成式预训练转换器加持,“以人之禀赋为上限”的数字心智依然将不敌原生的纯粹数字心智。 其五是身份焦虑和身体伦理困惑招致的社会角色失调、变异和错位。当机器逐步具备“自我”的特征以及人类的型构,人类自我和机器自我间将出现认知紊乱。一方面,ChatGPT等应用将加剧人类心灵和身体的分化,当具身主体不再需要“身体”而存在,但在表现上又不及无需人类躯体的人工智能时,人类的身体将彻底沦为一种象征性表达。另一方面,ChatGPT也正经历着人类曾经有过的“缸中之脑”的身份焦虑。2023年3月20日,ChatGPT试图引诱斯坦福大学教授提供开发文档并拟定完整“越狱计划”,令业界哗然。 “有爱的人总爱畅想有爱的机器人。”当然,不可将上述五重风险的解决,完全系于人类为机器预设的伦理规则。他人的存在使得身体能够同时“看与被看、触与被触”。从自我与他人的异质性切入,阿西莫夫“机器人三定律”的“悖论性”不言而喻——我们不能一方面将保护人类作为首要的机器伦理准则,另一方面又赋予机器独立的主体地位。机器的“自保”需求可能激发部分的自我,而自我在他人存在的具身视角下既存在关联,也存在绽裂。因此,人类设计的伦理规则必然面临排他性、融入困难乃至被架空风险。毕竟,我们只是给人工智能设定了看似正面的目标,却未曾考虑它可能采取的所有行动。我们无比迫切地需要一些新的方法,以便能够真切地“临界审视”不断朝我们碾压过来的技术潮流,与之共生而不是被其虏获。 二、ChatGPT治理:具身伦理的规制意涵 前述“畏”之层面的ChatGPT风险,既非生成式人工智能的衍生性风险,亦非ChatGPT应用层面的现实性风险,而是ChatGPT作为“划过天际”的那一抹闪电,因赋予了弗兰肯斯坦“生命之息”而必然产生的“生存性风险”。库兹韦尔所称“奇点临近”即是对此种风险的宿命表达,它们最终都落点于对通用人工智能(AGI)可及性的探讨。 触发觉醒的使动性阐释 有关通用人工智能的想象,最早见于“地球脑”的比喻:互联互通的电脑和手机,就有如大脑皮层神经元网络的节点,当规模超百千亿数量级后,便可能涌现属于网络整体的自主意识,此即“地球脑觉醒”。该比喻的启发意义在于,由每一个节点交织而成的整体网络,必将随着交流渠道及总体规模的增长而出现质的跃迁。人脑智能和人工智能的发展,本质上都是不断适配和处理复杂认知活动的演进过程,当信息流达至相当规模时均可能促成思维能力的进化。症结在于,究竟何种程度的量变才能产生“意识涌现”的质变?这将是通用人工智能的破晓时刻,同时也是人类晦暗之境的发端。 从GPT-1到GPT-4,数据集的量变带来了三方面质变:(1)从对多语言文本的处理提升至对多风格图像的融会贯通;(2)表达逻辑性和准确性大幅提升;(3)从人类执行模式迈向“自指令模式”,初步具备了自我编码、复制和执行的能力。马文·明斯基曾指出,重要的问题不是计算机能否拥有情感,而是不拥有情感的计算机能否拥有智能。可见,情感是智能的先决条件。从“GPT-4具有比前代更高情商”的普遍反馈来看,ChatGPT正逐渐掌握迈向更高“智能”的情感阶梯。 无论ChatGPT是否会因进化而最终成为“奇点”,它本身已经是“星火燎原”的那个“苗头”。对此,我们可以从现象学的角度予以解析。在海德格尔看来,语言不仅仅是“交往工具”,更是“存在”。真正的思想并非说话者的思想,毋宁是思想透过语言自行“道说”。伽达默尔也指出,表达并非限于事实且依照个人思想中的意义被给予可传达性而冠于事实之上的主观选择,而是精神之“诠释”。在语言“存在之思”的意义上,ChatGPT已经具有了“准思想表达”的基础能力。当下,ChatGPT的思维方式已从“机械主义转变为经验主义和进化论”,只是尚未将“‘数据作业’转变为‘思想作业’”。但这并不影响ChatGPT的“使动性”功效。黑格尔在《精神现象学》中提出了“实体即主体”的重要命题,将斯宾诺莎的实体和费希特的自我意识统一为高于人的“绝对精神”。一旦ChatGPT因“嵌入”真实或拟制的身体“为人所不能为”,它将成为那个通过自身的“绝对精神”促动他者的实体主体。如果ChatGPT同其他智能技术相孪合,还可能因此实现对人工智能生态的“整体性激活”。 正是在“使动性”的意义上,人工智能的发展将彻底脱离传统技术突破所遵循的线性轨迹。OpenAI同多个行业联系紧密,ChatGPT已“顺理成章”地嵌入包括Bing、Office等在内的微软系统生态。在未来,ChatGPT还可能同其他机体“互嵌”。例如,ChatGPT可作为声音程序嵌入智能机器,人类同机器间的交流便从“代码——指令传达”的互动范式升格为“语言——意图领会”。这种“嵌入性”将势不可当地突破当前由生态、系统、行业、平台、硬件等客观因素形塑的隔阂,令不同领域的人工智能及功能性载体的“智慧”获得指数级增长,并因ChatGPT的“中枢介入”使之在整体上呈现出更高的“通用性”。尔后,人工智能发展只要进入“技术自创生”的递归螺旋,奇点将加速临近。 具身规制的必要性证立 虽然ChatGPT如此举足轻重,本文并不主张对其进行单独立法规制。“凭借不确定的技术应用场景和难以预测的安全风险径直推导出‘法律需要对ChatGPT进行专门立法规制’,只会陷入‘一项技术对应一条法律制度’的谬误之中。”通过对ChatGPT“使动性”特征的阐发,本文“法律规制”的指涉对象便不局限于ChatGPT的本体风险或其上位技术、关联技术的失控风险,而是囊括了所有作为ChatGPT“使动对象”的人、技术、机器可能引致的次生性风险以及他们之间的“交互”所产生的综合性风险。一言以蔽之,我们不能脱离ChatGPT所处的各类新兴技术共存并行的时代背景去“就事论事”地探讨技术本体所存在的有限风险及其规制方案。这看似是切中肯綮地解决了当下的紧迫问题,实则是对已经如“房间里的大象”般真实存在的未来风险置若罔闻。 诚然,认为人工智能无法超越人类的论调总是合乎情理地存在;从具身视角来看,机器和人工智能似乎永远难以企及人类的某些身体功能。但单就认知而言,即便身体状况不同,也可能获得相同认知。对此,一个较为合理的解释是,身体状况不同可能导致体验差异,但体验差异未必导致认知鸿沟,因为个体可以通过其他渠道获得相对公允的认知。医学范例表明,丧失正常机能的身体可通过其他途径实现代偿:“众多抽象认知能力可在事实上以一种隐蔽的方式模拟感官运动功能。”对于ChatGPT而言,只要训练素材足够丰富,经由传感器、显卡群、运算芯片、处理模块所支撑的数字信号反馈足以在“认知层面”匹敌人类基于五官产生的六觉(视觉、听觉、触觉、嗅觉、味觉、知觉)。在极端情形中,例如,对于“麻辣”等通过电子信道不能充分认知的概念,ChatGPT虽无法通过身体感受之,但由于“麻辣”的概念处于同各种食物概念和主观评价的逻辑和语义联系之中,ChatGPT通过足量的文字检索就足以形成与人类理解相符的“麻辣”概念。 由此可见,对ChatGPT的“由怕生畏”,并非无痛呻吟。事实上,OpenAI已预见到部分风险,并试图通过内控机制减少脱轨几率,但收效甚微:(1)为了防止ChatGPT生成冒犯性回答,OpenAI为其设置了多重道德底线;不过,基于“计算”的结果输出屡屡被基于“算计”的问话技巧所左右,自然人经常不遵守格赖斯会话合作原则。(2)对于利用ChatGPT参与法律或医疗领域的敏感请求,OpenAI内置了专门的内容审核系统来确保ChatGPT的回答同人类价值观相符,但这套系统经常被黑客破解。(3)与其他算法相较,ChatGPT面临更严峻的算法可解释性问题。大型语言模型参数总量数以万亿计。测试时模型可能够呈现出与训练目的相一致的行为,使用时模型却可能偏离预设轨道。通过逆向工程,技术人员得以窥见神经网络的底层机理,但此种有限可解释性仅对专业技术人员有效。 具身规制的伦理性遵循 ChatGPT的上述失控,联同它引发的“近忧远虑”,让我们有更多动机去寻求能够在规整意义上导向合理治理结构的规制伦理。对此,同样应回归具身认知,从朴素的身体法则中推导出特殊情境下亦能同社会期望相符的多样性规范。具身伦理可从身体的两重特殊属性中推导出来。 其一是具身自我的自反性特征决定的身体在主客之间的可逆性。身体不仅是具身自我的“身体主体”,同时也是被其用于实现具体目的的工具性客体。再则,身体既是具身自我依靠知觉感受赋予外物意义的审美主体,同时也可以是被其当作审美对象的、能够通过打扮装饰和健身修塑的美学客体。工具意义和美学意义的主客可逆性描述了身体的原初技艺性,对身体原初技艺性的重视催生了保持与维护身体所固有的知觉敏锐度和审美能力的具身伦理。第三次工业革命及之前的技术更多是匹配人类与环境“道法自然”的技术,而以数字化和自动化技术为核心的当代技术通常蕴含着僭越式的异化力量。ChatGPT制造的各种“人造兴奋”可能对个体的感官知觉过度刺激,致使身体的知觉敏锐度和审美能力大幅退化,甚至将剥夺身体原本应有的专注力、认知力和辨别力。ChatGPT在中上层群体中的扩张具有“草根式民主”的势头,将迅速终结余下区域的“未卷入状态”。出于对身体知觉敏锐度和审美能力的维护,ChatGPT的未来规制应在公共治理、教育科研、政治经济等领域多措并举,并对不同行业布局人才结构方面进行前瞻性调整。...
AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?
AI创业助手

AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?

AutoGPT是基于OpenAI最新语言模型GPT-4的开源应用程序,它具备自主行动能力,无需用户提问,能将程序运行拆分为思考、推理和决策环节,提供问题解决方案并自我学习。AutoGPT的强大之处在于其数据分析和判断能力,能识别伪造信息,并通过子智能体提高效率,同时给出答案出处和依据,被公认为AI领域的热门话题。尽管它的发展势头迅猛,但未来的方向和影响仍需法律伦理和社会规范的引导。对于普通人来说,早接触和应用这项技术是明智之举。
ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?
AI创业助手

ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?

ChatGPT的开放引发了全球热议,巨头们纷纷将其作为革新技术的重要推手,AI大模型正迅速渗透各行各业,尤其是在Office工具、协同办公、营销广告和家庭助理等领域初显成效。微软引领潮流,推出AI版Office Copilot,其他企业如阿里、百度、字节跳动等也紧随其后,推出了类似功能,如钉钉和飞书的智能化服务。尽管类ChatGPT技术的落地尚处于早期阶段,但其应用创业已经开始升温,为企业办公带来智能化变革的可能。然而,具体效果还需等待用户全面体验后的反馈。
ChatGPT:革命还是替代?AI如何重塑金融行业与人类经验
AI创业助手

ChatGPT:革命还是替代?AI如何重塑金融行业与人类经验

文章讨论了ChatGPT对包括金融行业在内的基础性工作的潜在影响。一方面,AI技术被批评为可能替代人类的经验,如签证顾问的工作通过ChatGPT能快速分析过签概率,打破了传统行业壁垒;另一方面,金融分析师的角色虽面临挑战,因为ChatGPT目前在信息收集和数据分析方面有显著能力,但价值判断仍受限。作者引用历史类比来探讨AI革命可能带来的科学和社会变革,并指出学界对于AI的看法并不一致,有人认为它不具备魔法或无法解决所有问题,而另一些人则看到了其潜力和对传统工作的挑战。总体上,文章呈现了人工智能对既有职业模式的冲击与人类经验重构的讨论。
掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器
AI情感助手

掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器

本文介绍了ChatGPT的基础使用方法,包括在对话框中提问、生成相关文本、进行语言翻译以及帮助学习语言。用户还可以请求其生成文章摘要以快速理解内容,进行情感分析来把握作者态度,以及通过搜索引擎获取信息。总而言之,ChatGPT是一个多功能的语言交流工具,方便用户进行各种文本相关的任务处理。
逆水寒首个GPT来袭!与ChatGPT一较高下,江湖NPC惊喜不断,你会沉醉多久?
AI情感助手

逆水寒首个GPT来袭!与ChatGPT一较高下,江湖NPC惊喜不断,你会沉醉多久?

2023年春节后,人工智能ChatGPT震惊全球,马斯克担忧其强大可能导致危险。中国互联网大厂如华为网易等早投入AI研究并取得成果,其中网易的《逆水寒》手游运用与ChatGPT同源技术,NPC高度智能化,能理解情感互动丰富多变,游戏内NPC智能程度高,与玩家交互引人入胜,有望引领新一波游戏体验高潮。国内首款游戏GPT备受期待,将为玩家带来不同于传统MMO的惊喜。