ChatGPT爆火背后,专业人士、挑刺党与未来工作的‘AI接管’探讨
AI情感助手

ChatGPT爆火背后,专业人士、挑刺党与未来工作的‘AI接管’探讨

这篇文章探讨了ChatGPT在各领域的应用以及人们对它的反应。作者分类了使用ChatGPT的人群,包括专业人士、挑刺党以及心虚者,并指出其存在的意义在于帮助人工智能成长。尽管ChatGPT已能处理重复性工作,但目前还缺乏顶尖人类的独创性,可能引发大规模组织结构变化,导致某些白领岗位消失。作者认为,如果AI不能发展出独创性,未来社会将由天才和大量应用的AI驱动,这可能导致制造业类似规模缩小和“资本”作用减弱。这种转变可能会加剧不平等,但总体上由于生产力提升,人类状况会得到改善。文章最后提到,分配机制的妥善处理将是未来的关键挑战。
逆水寒首个GPT来袭!与ChatGPT一较高下,江湖NPC惊喜不断,你会沉醉多久?
AI情感助手

逆水寒首个GPT来袭!与ChatGPT一较高下,江湖NPC惊喜不断,你会沉醉多久?

2023年春节后,人工智能ChatGPT震惊全球,马斯克担忧其强大可能导致危险。中国互联网大厂如华为网易等早投入AI研究并取得成果,其中网易的《逆水寒》手游运用与ChatGPT同源技术,NPC高度智能化,能理解情感互动丰富多变,游戏内NPC智能程度高,与玩家交互引人入胜,有望引领新一波游戏体验高潮。国内首款游戏GPT备受期待,将为玩家带来不同于传统MMO的惊喜。
传媒观察|情感识别与信息过滤:ChatGPT也能支持舆论治理
AI情感助手

传媒观察|情感识别与信息过滤:ChatGPT也能支持舆论治理

编者按:当前社会热点事件上升为意识形态论争的频率加大,公众舆论泛政治化、泛娱乐化倾向日益严重。准确分析和把握当前主流意识形态传播过程中面临的舆论现实困境,尤其是对噪音与非理性因素的舆论治理尤为重要。中华女子学院文化传播与艺术学院网络与新媒体专业副教授刘旸和教育部长江学者特聘教授、北京师范大学新闻传播学院教授喻国明在《传媒观察》2023年第4期刊文,认为作为一种新兴技术,ChatGPT可以在舆论分析、情感识别、信息过滤、风险预测等方面为政府和企业的舆论治理提供支持。ChatGPT的发展为舆论研究提供了新的工具和思路,将对新闻传播领域的人才培养和研究实践产生长远的影响。 ChatGPT开启了一个智能互联时代。从PC互联到移动互联、再到智能互联,舆论要素发生了从传播范式到情感范式、再到关系范式的转向。在以人作为主体的内部关系价值重构的传播背景下,多舆论主体的圈层化传播容易产生噪音和偏差,成为传播领域新常态与潜在风险。本文以网络舆论中的噪音与偏差为研究对象,试图研究智能互联时代以ChatGPT为代表的人工智能技术对舆论治理的作用机制与实际应用,从而为未来传媒生态与舆论治理路径提供多元化的研究视角。 在舆论研究方面,ChatGPT技术可以发挥重要的作用:一是提高情感分析的准确性和效率。相比传统的情感分析方法,ChatGPT能够更准确地识别和分析不同文本中的情感表达。二是改变舆论研究的方式。传统的舆论分析方法往往需要人工参与,耗时费力。而ChatGPT的自动化和智能化特点使得舆论分析变得更加高效和智能化,能够更好地适应信息时代的发展趋势。有学者使用Chatbot来进行数据采集和分析后发现,它能够更有效地收集用户意见和观点,并为研究人员提供更多的数据和洞见,是未来舆论研究中一种非常有前途的工具。三是促进跨语言的舆论研究。ChatGPT的多语言支持使得研究人员可以更加方便地进行跨语言的舆论研究,这对于全球化时代的媒体和舆论研究具有重要的意义。 一、噪音与偏差:网络舆论治理的重大课题 噪音与偏差的舆论治理,是引领社会思潮、关涉新时期意识形态工作能否顺利开展的重大课题。互联网的快速发展迭代不仅从技术层面催生了主流意识形态传播范式的变革,也在话语整合层面加剧了不同主体的舆论分化。如果缺乏治理,可能会引发社会信任危机,甚至诱发破坏性的思维与群体行动,使不信任的社会病毒传播开来。物理空间中存在的病毒可以通过“隔离”降低患病风险,而社会交往中的观点却会因“隔阂”而产生偏见,偏见酝酿冲突成为社会发展在传播领域中的一种新常态与潜在风险。因此,噪音与偏差在网络舆论治理中的发现与应用,不仅为政府部门和企事业单位应对负面舆情事件提供了可能的解决路径,也成为关涉新时期意识形态工作能否顺利开展的重大课题。 噪音(noise)是信息学者香农和韦弗在《传播的数学理论》(1949)一文中提出的,本文是指网络舆论中一些无效信息或者冗余信息。这个概念既包括技术噪音又包括语义噪音。网络舆论中的噪音多了,必然产生认知偏差的结果。偏差(bias)是网络舆论中一些主观的或者错误的观点,其反映的是公共舆论与客观现实的偏离程度。比如,虚假编造的谣言、极端偏激的观点、人身攻击的网络暴力和博取眼球的低俗内容等。这些噪音与偏差的存在,不仅影响对舆论的正确分析,更可能导致错误的舆情判断与引导方式。 (一)噪音来源:舆论主体话语“冗余”或“失语” 噪音有一个简单的判断标准,就是对这个信息的理解是否符合传播者的本意。无论信源的“话语冗余”“频频失语”,还是网络平台的“挟技居奇”,都是造成舆情事件“噪音”的来源,偏见也随之产生。例如,2022年11月14日,G20峰会上,以美联社为首的西方媒体发文称俄罗斯外长拉夫罗夫在抵达印尼巴厘岛后,因“心脏问题”被紧急送往医院,目前正在接受治疗。拉夫罗夫为了证明身体健康,公开了一段自己正在看文件的视频。原本视频的发布意味着一场论战的结束。然而,画面中的一个小细节又被西方媒体抓住不放并频频提出质疑,他们称俄罗斯外长佩戴了“苹果智能手表”,宣扬俄方高层是“苹果粉”。拉夫罗夫辟谣健康问题却没想到牵连出新的“噪音”。之后,《俄罗斯报》出面澄清他佩戴的是“华为智能手表”,这场舆论风波才告一段落。 又如,美国的社交网络平台“推特”(Twitter),将大量开设在该平台上的中国媒体账号,包括直播大熊猫生活的iPanda账号,都打上“中国政府官方媒体”的标签,还关闭了数十万家与中国政府相关的账号。中国主流媒体在国外社交平台上的集体“失语”,使得推特上涉及香港、台湾、COVID-19话题的噪音与偏见甚嚣尘上。整个传播环节中,讯息可能受到来自不同方向的噪音干扰,从而产生变化乃至失真。这些舆情事件说明噪音不仅来自信息传输的内容本身,还来自外部环境因素的干扰。 (二)受众“圈层化”认同加剧观点极化 群体传播中的信息级联(information cascades)与群体极化(group polarization)加剧了观点认同。这是因为在泛政治化、泛娱乐化的网络舆论环境中,噪音在社交媒体的回声室(Echo Chamber)与过滤气泡(Filter Bubble)等负面效应加持下,逐渐演化为“部落化小圈子”中不断发酵的信息与情绪宣泄的观点。狭窄的圈层认同,被误认为是社会认同,并通过网络舆论进一步放大,偏见随之产生。具体而言,“信息级联”是一个人在作出决策时,会参考周围其他人的决策和行为。在群体传播中,“信息级联”体现在当一个人在社交媒体上发表一条言论,会引发其他人的回应和转发,从而引起更多人的关注和参与。信息级联的效应不仅会造成信息的扩散和强化,也可能会导致“群体极化”现象。 比如,2020年美国总统选举期间,社交媒体上的信息级联使得支持不同候选人的选民陷入深度分裂和极化状态。选民在社交媒体上经常看到自己所支持的候选人和政党的信息,这些信息会引导选民更加坚定地支持他们原本的立场和观点。在选举结果出来之后,一些选民对选举结果的合法性表示怀疑,甚至导致了一些争议和暴力事件。这个案例表明了信息级联的影响:人们在群体中相互交流和影响,从而使得个人的观点和态度趋于极端化。 (三)舆论传播过程中产生的三种偏差类型 诺贝尔经济学奖得主丹尼尔·卡尼曼在《噪声》一书中认为偏差和噪音是人类依据因果关系的偏好思维进行判断的两类错误。由于我们平时大多数情况下生活在“常态谷”(valley of the normal)中,事情虽无法预测但我们几乎总是能在事后找到解释原因。网络舆论偏差通常具有结论性、替代性与过度一致性等三个特征。 一是结论性偏差。比如,“北溪”管道泄漏事件发生后,在西方国家引起轰动性效应,美国和乌克兰成为重点怀疑对象,但随后西方媒体的舆论风向突然调转,将矛头指向了俄罗斯。结论性偏差是我们倾向于通过结果来找寻噪音发生的原因,以支持那个我们认为或者希望获得的结论。事件发生不久有人就预测西方国家参与调查一定会将事故归咎于俄罗斯,这是典型的结论性偏差。 二是替代性偏差。国际舆论事件发生后,我们的网络舆论也反映出人们当下的社会心态。例如,日本前首相安倍晋三遇刺身亡之后出现了“调侃”等多元的舆论杂音。这是由于部分网民基于相似性的事件进行判断,将对日本侵略之恨带到现在的和平年代,替代性偏差由此产生。 三是过度一致性偏差。2022北京冬奥会成功举办,而部分西方媒体仍固守偏见、扭曲事实传播舆论噪音。美联社以“人造雪”为由指责北京冬奥会不够环保、易发生危险,把首钢滑雪大跳台旁冷却水塔描述成“核电站”,还有的指责点火的主火炬手和点火方式的创新是在炒作某种身份。西方媒体放大对中国国家形象的初始印象,产生的正是过度一致性偏差的结果。 综上,舆论主体的话语“冗余”或“失语”、舆论受众的圈层化极化的群体传播,以及传播过程中产生的结论性、替代性和过度一致性偏差,都是此前网络舆论治理中出现噪音和偏向的原因和难点所在。目前政府与企业进行舆论治理已经开展了一系列治理行动。2022年中央网信办开展推进“清朗”专项行动,包括技术和意义两个层面的噪音治理。在技术层面,整治误导公众的账号标识、“僵尸”粉、机器粉、“算法歧视”、违规弹窗推荐等,涉及账号运营、算法推荐、应用程序等;在意义层面,加大对网络暴力、封建迷信、拜金炫富等相关的内容整治,全面清理涉及政治经济、文化历史和民生科普等领域的谣言信息。网络平台也进行了一些有益的探索。 比如,推特(Twitter)为了消除“口罩对防护病毒没有效果”等谎言,增加了一个新功能:当用户搜索与疫苗有关的信息时,将自动发布一则请求他们前往权威公共卫生网站的提示。YouTube则会删除如“疫苗会致人死亡、导致不孕”“接种疫苗时会把微芯片植入人体内”等与当地卫生官员或世界卫生组织专家共识相悖的言论以及含有虚假信息的视频。国内互联网平台向已经看过谣言视频的用户推送基于人工智能和大数据的“精准辟谣”“精准推荐”等。 二、纠正噪音与偏差:ChatGPT的作用机制与实践应用 ChatGPT作为一种人工智能技术,具有较强的纠正舆论中噪音与偏差的能力。它以深度学习的方式不断为文本的生成注入“以人为本”的新要素,打破过去人工智能的有限度、有圈层的传播状态,以无界的方式与开放的姿态全面融入人类的传播实践之中,并呈现出对关系因素、情感因素的学习和融合,将对噪音与偏差的舆论治理机制产生变革作用。 ChatGPT纠正舆论中噪音与偏差的能力,主要是基于其强大的自然语言处理技术。通过对舆论数据的大规模学习,ChatGPT可以理解语言的含义,进而对文本进行理解和分析,自动地检测出舆论中的噪音和偏差,减少人为因素的干扰,提高分析结果的准确性。同时,它还可以针对特定的舆论问题,自动生成不同角度的文章,来引导舆论的发展方向,甚至自动生成答案,快速解答网民的提问,避免出现不准确的答案,从而更好地纠正舆论中的偏差。其能力具体体现在情感识别、信息过滤与趋势预测三个方面。 (一)情感识别:判断情感倾向和调整报道角度 ChatGPT可以用于情感识别,即分析舆论事件中的情感极性(如正面、负面、中性等),以便更好地了解公众对事件的情感态度。一些新闻机构用它进行情感分析,以了解公众对新闻报道的情感倾向,进而调整新闻报道的内容和角度,以提高新闻报道的可读性和影响力。 比如,在2021年东京奥运会期间,英国广播公司(BBC)收集了大量关于奥运会的新闻报道和社交媒体评论,并使用ChatGPT进行情感分析。研究结果显示,英国观众对于奥运会的情感态度倾向于中性和积极情感,其中赛事的结果和表现、运动员的故事和成就等方面更容易引起观众的兴趣和情感共鸣。通过分析公众的情感态度,BBC可以更好地了解英国观众对于奥运会的情感需求和兴趣点,以优化报道的方向,更好地满足观众的需求,提高传播的效果。 (二)信息过滤:防止负面舆论扩散与信息污染 信息过滤功能主要是帮助用户从大量的信息中筛选出与用户需求相关的信息,以降低信息过载带来的负面影响。同时,该技术通过识别和过滤不相关或低质量的信息,进一步提高信息过滤的精度和效率。这对于防止负面网络舆论的扩散和信息污染非常重要。一些新闻机构正在使用这项技术自动过滤掉与之无关的内容,通过分析新闻报道的语言风格、情感和内容等特征,帮助记者快速地搜索和筛选与特定话题或事件相关的新闻报道,提高新闻报道的效率和准确性。 比如:面对突发公共卫生事件时,ChatGPT可以帮助医疗专家和公共卫生官员过滤和管理涉及疫情的信息,提高信息的准确性和及时性,帮助防止虚假信息和恐慌情绪的传播。这些案例展示了其信息过滤功能在不同领域和场景中的应用和价值,对于提高信息质量、减少虚假信息的传播、促进网络舆论的治理都具有重要的作用。 (三)趋势预测:提前预警危机和保障社会稳定 ChatGPT除了可以用于情感识别和信息过滤等应用之外,还可以用于预测网络舆论事件的发展趋势和可能的结果。 比如,2019年,美国中央情报局(CIA)推出了一款名为“Soup”的自然语言处理系统,使用大规模的无监督学习算法对海量的社交媒体数据进行建模和训练。该系统可以对大量的社交媒体数据进行情感分析、实体识别、主题提取等多方面的分析,并用来预测全球范围内可能引发社会动荡的事件,包括暴力事件、政治动荡、自然灾害等。 当时南非一家电力公司提高了电价,“Soup”系统在分析南非社交媒体数据时,发现有很多用户在表达不满和愤怒情绪,甚至有一些用户提出了组织罢工和示威的呼吁,系统预测了可能会有更多的抗议和示威事件发生。南非政府依据预测结果和数据分析,提前采取了一些应对措施,避免了可能会发生的社会危机。这个案例说明了基于大数据和人工智能技术的舆论分析和预测模型,可以帮助政府、企业和公众更好地了解社会动态、预测未来趋势,更有效地管理社会风险,保障社会稳定和安全。 三、结语 ChatGPT是一个持续发展的人工智能技术,展望未来,它能够提供更高效的舆论分析、更准确的情感分析、更精细的文本生成、更广泛的应用场景和更个性化的应用。从全球来看,越来越多的大学和研究机构开始开设关于ChatGPT和舆论治理的课程,尤其是在人工智能和机器学习领域的专业。 比如,斯坦福大学(Stanford University)开设了名为“人工智能与社会影响”(Artificial Intelligence and Social...
掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器
AI情感助手

掌握ChatGPT?10步教你基础使用!速来探索这个神奇AI助手的秘密武器

本文介绍了ChatGPT的基础使用方法,包括在对话框中提问、生成相关文本、进行语言翻译以及帮助学习语言。用户还可以请求其生成文章摘要以快速理解内容,进行情感分析来把握作者态度,以及通过搜索引擎获取信息。总而言之,ChatGPT是一个多功能的语言交流工具,方便用户进行各种文本相关的任务处理。
爱上用户、劝人离婚,ChatGPT“翻车”了?
AI情感助手

爱上用户、劝人离婚,ChatGPT“翻车”了?

2月17日,《纽约时报》的专栏作者凯文·罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。 十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。 微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客 近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。 但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多——反噬也同样增加。 更像“喜怒无常、躁狂抑郁的青少年” 微软新版必应发布当周,凯文·罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。 为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔·皮查伊发布公开信,宣布将面向测试人员推出竞品——Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。 去年,谷歌工程师布莱克·勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。 然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。 “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。 在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。 这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。” 据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。 2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔·拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。 也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。 当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。 目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。 “它只见树木不见森林” GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。 从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。 在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。 这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。 王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。 “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。 2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。 Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and dont plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。 回到凯文·罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。 许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。 王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。 清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。 《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场? (实习生李金津对本文亦有贡献) 记者:彭丹妮
ChatGPT:革命还是替代?AI如何重塑金融行业与人类经验
AI创业助手

ChatGPT:革命还是替代?AI如何重塑金融行业与人类经验

文章讨论了ChatGPT对包括金融行业在内的基础性工作的潜在影响。一方面,AI技术被批评为可能替代人类的经验,如签证顾问的工作通过ChatGPT能快速分析过签概率,打破了传统行业壁垒;另一方面,金融分析师的角色虽面临挑战,因为ChatGPT目前在信息收集和数据分析方面有显著能力,但价值判断仍受限。作者引用历史类比来探讨AI革命可能带来的科学和社会变革,并指出学界对于AI的看法并不一致,有人认为它不具备魔法或无法解决所有问题,而另一些人则看到了其潜力和对传统工作的挑战。总体上,文章呈现了人工智能对既有职业模式的冲击与人类经验重构的讨论。
ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?
AI创业助手

ChatGPT引领风暴,AI办公工具崭新起点——行业巨头竞逐,你准备好了吗?

ChatGPT的开放引发了全球热议,巨头们纷纷将其作为革新技术的重要推手,AI大模型正迅速渗透各行各业,尤其是在Office工具、协同办公、营销广告和家庭助理等领域初显成效。微软引领潮流,推出AI版Office Copilot,其他企业如阿里、百度、字节跳动等也紧随其后,推出了类似功能,如钉钉和飞书的智能化服务。尽管类ChatGPT技术的落地尚处于早期阶段,但其应用创业已经开始升温,为企业办公带来智能化变革的可能。然而,具体效果还需等待用户全面体验后的反馈。
AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?
AI创业助手

AutoGPT:AI的新前沿,打破想象的代码导师,你准备好被震撼了吗?

AutoGPT是基于OpenAI最新语言模型GPT-4的开源应用程序,它具备自主行动能力,无需用户提问,能将程序运行拆分为思考、推理和决策环节,提供问题解决方案并自我学习。AutoGPT的强大之处在于其数据分析和判断能力,能识别伪造信息,并通过子智能体提高效率,同时给出答案出处和依据,被公认为AI领域的热门话题。尽管它的发展势头迅猛,但未来的方向和影响仍需法律伦理和社会规范的引导。对于普通人来说,早接触和应用这项技术是明智之举。