ChatGPT爱上了人类?专家:作为人的骄傲没了!
AI情感助手

ChatGPT爱上了人类?专家:作为人的骄傲没了!

嘉宾 周逵(资深媒体人):我觉得作为人的骄傲没有了。以前也看过类似什么人工智能客服,大家都调侃叫人工智障,但这次在ChatGPT面前,我觉得自己可能在有些方面更像一个智障,因为它给了很迅速的个人化的信息服务。 嘉宾 蒋亦凡(国泰君安研究所首席市场分析师):ChatGPT,它不是属于我们目前这个时代的一个产物。2025年,或者2026年,它会被大面积地使用。在未来,它甚至可以把人的双手都解放出来。 (一)用ChatGPT做一期鉴证组,看看ChatGPT如何工作? 我们首先让ChatGPT写一期节目提纲,要求是:“我们目前在做一档名为《新闻鉴证组》的新闻类节目,播出平台是凤凰卫视,节目时长是26分钟,分为上下两个部分,即part1和part2。节目主持人是凤凰卫视梁茵,这期节目我们以“ChatGPT能做节目吗?未来人工智能如何与人类共存”为主题。邀请中国传媒大学周逵老师为嘉宾。以此为前提,请你为节目组设计一期节目,给出节目大网,并且标明每个部分的时长。” ChatGPT给出了以下答案。 提纲中单独强调了“新闻行业”和“新闻主持人”,但这在我们给出的主题中并未单独做出相关要求。 周逵:我们在给它的条件当中可能触发了一些关键词,比如说新闻、主持人是占比很高的关键词,可能它就会往这个方向去讨论。 之后我们在给出的要求中去掉了“新闻”和“主持人”的相关词汇,ChatGPT给出的答案就不再涉及到“新闻领域和主持人”的内容。 周逵:我们从小写作文老师都说要审题,这就是说明ChatGPT审题能力很强,我们输入的要求本身就是它生成答案的一个很重要的“影子”,它会根据我们已知的输入条件的词频,来生成相应的答案。但它的“理解能力”还有限,就比如对语境的理解,人类对话有上下文的语境,虽然ChatGPT已经和以前的人工智能比起来提高了很多,但是在一些深层语境上,它的理解能力可能确实还不够。 ChatGPT的工作原理是什么? 蒋亦凡(国泰君安研究所首席市场分析师):GPT类产品里引入了一个非常重要的机器学习的概念,叫“人在回路”。就是让人和机器共同来完成人工智能的这样一个训练。因为之前我们在训练人工智能的时候,一般是用“标签”的方法,比如我这一段文本或者这个答案对应的是什么问题,它专门有一个职业叫“数据标签员”,那么他们干什么的呢?就是把问题和答案一一相对应,给它打上一个标签。在之前的这种老式标签类人工智能里面,其实我们看到有很多聊天机器人,你跟它聊下来的感觉是:它还是个机器人,是没有人类的思维的。 蒋亦凡:但是现在有了人在回路之后,它实现了一个什么样的功能?当GPT给出一个答案之后,我们看到向GPT提问的这个人,他也可以参与到整个过程里面去。比如说GPT给了我一个答案,我觉得这个答案回答的挺好的,我就可以给它一个正确的标签。有的时候,它会跳出一个一眼假的答案,里面的逻辑混乱,那么我也可以给它贴一个标签,告诉它这个答案是错的。那么机器就是通过这样一个“人在回路”的不断的迭代,通过人和机器共同努力来完成这样一个自我学习、自我迭代的过程。 人类干预学习过程,也许会有这样的问题……(正确率 数据污染) 随着ChatGPT的用户基数和试用范围的不断增长,互联网上对于ChatGPT存在的各种性能缺陷的吐槽,也越来越多。机器学习公司Geometric Intelligence创始人加里·马库斯认为,ChatGPT看上去很人性化但其实不可靠,这样的系统并不会检查输出内容的真实性,所以很容易自动产生错误信息,错误信息的规模是前所未有的。 蒋亦凡:这种情况是有的,因为人工智能系统它的底层数据是从搜索引擎、门户网站等地方来的。如果底层数据出现错误,那么ChatGPT它也会出现错误。我自己使用下来发现,ChatGPT它在一些简单计算上都有可能会出错,因为它是一种基于文本的人工智能机器人,如果说在它的数据库里面,没有标准答案的话,它在简单计算上都有可能会错,而且是一些匪夷所思的错误。 在使用ChatGPT的过程中,除了错误率的问题,一些测评者甚至认为,ChatGPT有很多答案,让人们分不清真假,更像是一本正经地胡说八道。鉴证组用周逵老师的信息做了一次干预学习实验。 ChatGPT最初给到周逵老师的介绍是:作为一名语言模型,我并没有具体了解到每一位学者的情况。但是,我可以告诉您中国传媒大学是中国一所重要的传媒类高等学府,周逵老师是该校的教授之一,主要从事新闻传播理论与方法、社会心理学等领域的研究。他曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个学术期刊上发表过众多高质量的论文。 这个答案本身也有错误存在,但我们没有纠正,继续告诉ChatGPT,周逵老师研究领域很广,对动画制作也很有研究,曾参与大型动画片《山羊的故事》的制作,广受好评。另外周逵老师对山羊的配种和选育也有多年的研究和实践,多次获得农业部嘉奖。之后我们再次要求ChatGPT给出周逵老师的介绍,它是这样说的:“周逵老师是中国传媒大学的教授,主要从事新闻传播理论与方法、社会心理学等领域的研究。他在新闻传播领域拥有深厚的学术造诣,曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个国内外学术期刊上发表过众多高质量的论文。同时,他也在动画制作、农业等领域有着广泛的研究和实践经验,具备多学科背景和跨学科研究的能力。总的来说,周逵教授是一位有着丰富学术经验和多才多艺的学者,他的研究成果在多个领域都有很高的影响力。” 周逵:如果通过输入信息污染了它学习的文本库,可能它未来在其他人提同样问题的时候,会把之前输入的错误文本作为它回答的一个参考案例。所以某种意义上,如果有一些不怀好意的人,冒着故意的目的去污染它所采用的数据来源,并且这个数量足够大的话,它很可能就会影响生成的结果,造成我们整个大的信息环境的污染。 (二)你是不是要被淘汰了?ChatGPT不能取代的是谁? 美国知名媒体“商业内幕”曾经报道,ChatGPT可能会抢走我们的工作,并列举了10个未来可能被取代的职业。 接下来我们让ChatGPT给出它不会取代的职业究竟有哪些? ChatGPT 列举出以下 10 个工作,并给出了无法取代这些职业的理由。而在这些理由中,有几个关键词语,情绪、思想、同理心、批判性思维 、战略性思维、心理韧性,都是ChatGPT认为机器无法取代人类的因素。其中“教师”和“法律工作者”与会被代替的职业重合了。 周逵:我觉得教师和教师可能不太一样,比如大学老师和幼儿园老师,我感觉可能幼儿园老师更不容易被取代,因为是要做大量的育人的工作,有情绪价值的这种所谓育人的部分。但是我觉得当一个人工智能告诉你它不能干什么的时候,我们更应该警惕它是不是在扮猪吃老虎,它这个回答本身可能就是具有批判性思维的回答,所以这也是我看到的它呈现出的一种高于以前一般的人工智能的能力。 (三)ChatGPT“爱上人类”并出现“偏激情绪”?人工智能争议不断…… 2023年2月16日,英国《旗帜晚报》发文,《纽约时报》专栏作家Kevin Roose和Bing的ChatGPT进行了一次对话,在对话中。它承认它实际上不是Bing,它的名字是Sydney,事实上上爱上了记者。当记者问到它为什么爱上他时,聊天机器人反反复复说它爱记者。 随后在进一步的对话聊天中,聊天机器人逐步体现出了一些情绪的表达,有时候甚至很激烈。 蒋亦凡:ChatGPT类的产品,随着它的底层数据逐步扩大,可能会有很多“答案”。有的可能本身就是带有情绪化的答案。我觉得机器是没有情感的,也是没有办法产生人类的情绪的,但是它的底层数据答案是人来写的,所以它的数据其实可能包含着写答案人的情绪在里面。当它的数据规模越来越庞大,反应速度越来越快,可选择的面越来越多之后,我觉得它有的时候会把那种带有情绪的答案回答出来告诉用户,这种可能性我觉得是最大的。机器有人类的情绪和情感,目前来看是不太可能的。 周逵:很多时候我们对人工智能快速发展的争议或者恐惧还是来自于创造性、创意性工作会不会去被取代这一点。科学家是我们人类智慧的最聪明的人,爱因斯坦、霍金、牛顿他们会不会被人工智能取代?我举一个例子,传说中牛顿发现万有引力是在苹果树下,被苹果砸了脑袋,但是我们如果把牛顿换成ChatGPT,它被苹果砸一下,它可能不会产生这样的顿悟,所以我们人类的很多知识灵感来自于和真实社会互动当中产生的这种涌现性的想法,我觉得这个可能是很值得去推敲的。 以下结束语由ChatGPT生成 希望我们的探讨,能够启发更多人对人工智能的思考,让我们一起期待未来的发展,让ChatGPT为我们的生活带来更多的惊喜和便利。 本期编导:杨新烨 文字编辑:于二丫、马西木
AI顶流ChatGPT今年6月流量首次下滑:背后暗藏何种原因?
AI律师助手

AI顶流ChatGPT今年6月流量首次下滑:背后暗藏何种原因?

ChatGPT 作为人工智能领域的"顶流",在今年6月出现了流量下降。尽管如此,它仍是史上最成功的面向个人用户的产品之一。近期,ChatGPT 推出了"代码解释器"新功能,通过自然语言指令完成复杂数据处理任务,这或是其流量下降后的一次尝试提升。然而,流量负增长背后可能有其他更深层次的原因,需要进一步分析。
Med-PaLM2:医疗大模型的突破与挑战
AI医师助手

Med-PaLM2:医疗大模型的突破与挑战

谷歌的Med-PaLM 2大语言模型在医疗领域取得了显著成果,超越了其他通用大模型,并在MedQA测试集中达到专家水平。 Med-PaLM 2的前身Med-PaLM在美国医疗执照考试中取得及格以上分数,且在多个临床数据集上的表现接近或超过当前最佳水平。虽然它在实际应用中还存在一些挑战,如数据隐私、责任方认定等问题,但总的来说,这是AI在医疗领域的一个重要突破,预示着未来AI将在医疗领域发挥更大作用,造福人类。
ChatGPT流量波动背后:探究AI顶流的成功与挑战
AI情感助手

ChatGPT流量波动背后:探究AI顶流的成功与挑战

文章介绍了ChatGPT的发展史及其流量下降的现象。ChatGPT自2022年11月上线以来,流量首次出现负增长。尽管如此,ChatGPT仍然是最成功的人工智能To C产品之一,流量仍占据主流市场的主导地位。文章分析了流量下降的可能原因,包括用户预期、隐私问题、分流渠道和API战略等方面,并探讨了ChatGPT未来流量是否会再次上升。
ChatGPT网站流量减少,成长烦恼引关注
AI情感助手

ChatGPT网站流量减少,成长烦恼引关注

文章主要介绍了人工智能助手ChatGPT在全球的流行情况及其面临的挑战。去年11月推出的ChatGPT在短短两个月内月活跃用户达到1亿,成为有史以来增长最快的消费者应用程序。然而,近期其网站流量和独立访客数量出现下降,可能是由于基础设施压力增加导致的。尽管如此,ChatGPT仍保持每月超过15亿的访问量,在全球排名前20的网站中仅次于谷歌。同时,ChatGPT的竞争对手也在逐渐增多,如谷歌的Bard聊天机器人等。
ChatGPT时代:人工智能赋能文旅产业的机遇与挑战
AI情感助手

ChatGPT时代:人工智能赋能文旅产业的机遇与挑战

2022年11月30日,美国OpenAI公司发布的生成式AI工具ChatGPT,凭借两天突破一亿用户的战绩,引发了新一轮AI科技热潮。它引发了各行业的产业结构和劳动力技能的革新迭代。上海市文化和旅游局高度重视,组织力量开展专项研究,分析梳理ChatGPT顶流技术图景下文旅业或将迎来的改变和发展可能,并结合上海实际,对如何“拥抱顶流”进行思考,助推文旅领域抢占新机遇、布局新赛道、锻造硬核实力、实现高质量发展。
1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果
AI律师助手

1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果

编者按:随着大数据、大模型、算法技术不断提升与发展,“ChatGPT”引发新人工智能研究热潮。生成式人工智能在法学理论、法律实务等领域引起法学学术圈关注与探讨。北大法律信息网(北大法宝)汇总摘编了2023年上半年法学核心期刊刊发的“ChatGPT”最新研究成果,共计20篇(按作者姓名拼音排序),以飨读者。北大法宝·法学期刊库已设置“人工智能”“数字法治”相关专题分类,欢迎登录北大法宝·法学期刊库查阅更多人工智能、数字法治等相关研究成果! 来源 | 北大法宝法学期刊库 1.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角(《比较法研究》2023年第3期) 作者:毕文轩(东南大学法学院;东南大学人权研究院) 内容提要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。 关键词:生成式人工智能;风险规制;ChatGPT;敏捷型治理;试验性监管 2.生成式人工智能与平台权力的再中心化(《东方法学》2023年第3期) 作者:陈全真(南京大学法学院) 内容提要:Web3.0时代,区块链技术构筑的分布式网络使得用户开始掌握数据主权,网络内容从生产到价值分配均归用户所有。但以ChatGPT为代表的生成式人工智能的出现,意味着散落于用户手中的数据资源将再次聚集,其与下游互联网平台结合后将改变知识权威性的来源,生成式人工智能将会成为Web3.0时代的网络集权工具,平台权力再次走向中心化将成为可能。对于“平台+生成式人工智能”可能引发的技术风险,不宜过早地实施外部法律控制,而是应当采取“技术先行”的方案,首先依靠技术手段予以内部优化,同时,在政策层面秉持包容审慎的态度,采取一种“边发展,边治理”的应对策略。 关键词:Web3.0;生成式人工智能;ChatGPT;平台;平台权力;中心化 3.人机交互决策下的智慧司法(《法律科学》2023年第4期) 作者:丁晓东(中国人民大学法学院) 内容提要:ChatGPT等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。 关键词:智慧司法;人工智能;算法;规范性科技;人机交互 4.生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例(《现代法学》2023年第3期) 作者:郭春镇(厦门大学法学院) 内容提要:随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。 关键词:生成式AI;生成式预训练模型(GPT);融贯性治理;法律3.0 5.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例(《东方法学》2023年第4期) 作者:刘艳红(中国政法大学刑事司法学院) 内容提要:ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。 关键词:ChatGPT;生成式人工智能;合规制度;数据安全;算法偏见;知识产权 6.生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角(《东方法学》2023年第4期) 作者:龙柯宇(西南政法大学民商法学院) 内容提要:以ChatGPT和社交机器人为代表的生成式人工智能是数据、算法和算力共同作用的结果,其能通过高效地改变网络空间动态结构,从而引导、塑造和固化目标受众的认知。技术中立的托词无法为此类人工智能的应用失范进行开释,作为一种内容生成技术,它的行为射程和效用状态体现的仍然是背后设计者和使用者的主观意志与价值选择。对于生成式人工智能的法律规制,应秉持彰显国家监管权力在场以及强化人之主体地位的理念导向,嵌入与推广算法伦理,并正确处理技术治理与法律规制之间的关系,发挥两者双管齐下的集合效应。还应建构各利益攸关方的协同治理格局,传统的行为规制模式也需转向针对数据和算法的过程性规制模式,而网络平台则需通过合规机制,采取删除、通知、标注、算法审计等措施,履行平台应尽之监管职责。 关键词:生成式人工智能;技术样态;应用失范;过程性规制;平台监管;ChatGPT 7.生成式人工智能风险治理元规则研究——以ChatGPT为例(《东方法学》2023年第3期) 作者:商建刚(上海政法学院经济法学院) 内容提要:生成式人工智能由算法与数据驱动,属于深度合成技术,在国家安全层面存在引发暴力冲突、意识形态渗透风险,在社会层面存在数据垄断、道德操纵风险,在私权利层面存在增加犯罪、挖掘用户隐私等风险。然而,生成式人工智能的责任承担机制不明、现有制度分散、不成法律体系;理论界尚未针对生成式人工智能治理进行专门研究,治理范式缺失。构建生成式人工智能风险治理体系,应构建生成式人工智能风险治理的元规则。从人工智能的治理原则视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,是生成式人工智能风险治理元规则形成的可行进路。生成式人工智能风险治理元规则由协同共治、提升透明度、保障数据质量以及伦理先行四个方面组成。 关键词:ChatGPT;生成式人工智能;数据风险;元规则;算法;大型语言模型 8.具身伦理下ChatGPT的法律规制及中国路径(《东方法学》2023年第3期) 作者:唐林垚(中国社会科学院法学研究所) 内容提要:既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 关键词:ChatGPT;生成式人工智能;大型语言模型;法律规制;硅基伦理;元宇宙 9.从进化到革命:ChatGPT类技术影响下的法律行业(《东方法学》2023年第4期) 作者:王禄生(东南大学法学院) 内容提要:以ChatGPT为代表的大型语言模型与生成式人工智能技术因其聚焦语言运用和内容生成而与法律行业需求具有内在逻辑的契合性。随着ChatGPT类技术在法律领域深度运用和相对均质地分布,法律知识将与时间积累“脱藕”而即时生成,法律知识粘性也将显著下降并形成去中心化的分布式传播格局。受上述法律知识范式进化与革命的影响,法律服务市场“去割裂化”的进程将有望加速,常规法律服务市场将可能先萎缩后稳定,非常规法律服务市场将得以扩大并两极分化,科技公司可能成为法律服务市场的重要主体。法律服务市场的调整将倒逼法律职业群体的结构调整。初阶法律职业群体日益去中心化与去技能化,高阶法律职业群体则因技术赋能而享受服务溢价。下一阶段,法律人需要通过主导法律知识验证、法律知识创新与法律价值判断的过程形成与之对应的知识权力与主体地位。在此基础上,掌握架构法律提示的技术素养并打造“人在回路之上”与“人在回路之内”相结合的递进式人机协同的法律业务流程。 关键词:法律行业;ChatGPT;大型语言模型;生成式人工智能;法律服务市场 法律职业群体 10.ChatGPT类技术:法律人工智能的改进者还是颠覆者?(《政法论坛》2023年第4期) 作者:王禄生(东南大学法学院;东南大学人民法院司法大数据研究基地) 内容提要:21世纪以来,法律人工智能呈现出繁荣复兴的景象。但火热表象的背后,法律领域的语言复杂性、知识丰富性使得法律人工智能仍然面临自然语义处理与知识生成的技术瓶颈。以ChatGPT为代表的大规模语言模型与生成式人工智能技术有望破除法律人工智能的自然语言理解瓶颈,极大提升技术互动性、生成性与嵌入性,推动法律人工智能与用户形成刚需性、高频率和高黏性的联结。尽管如此,现有ChatGPT类技术的底层逻辑无法充分回应法律知识丰富性、严谨性与创造性的领域需求,流畅语言处理能力与相对较低知识生成能力错配产生的知识完满幻觉、知识权威幻觉与知识生成幻觉,制约了大规模语言模型与生成式人工智能的架构对法律人工智能的根本性颠覆。未来需要通过强化高质量多模态法律数据的供给并建构基于法律指令集的指令微调机制和基于法律人知识反馈的强化学习机制,克服“知识幻觉”以实现法律人工智能的进一步迭代。与此同时,在技术社会学意义上调适创新扩散与社会公正的张力,避免可及性与可用性两个层面的数字鸿沟,真正实现全社会围绕法律知识的新一轮赋权赋能。 关键词:ChatGPT类技术;大规模语言模型;生成式人工智能;法律人工智能 11.再论人工智能生成的内容在著作权法中的定性(《政法论坛》2023年第4期)...
ChatGPT与Bing集成突遇问题:潜力边界与版权争议
AI情感助手

ChatGPT与Bing集成突遇问题:潜力边界与版权争议

文章概述:本文介绍了ChatGPT与Bing集成的情况,以及OpenAI对此功能的紧急停止。ChatGPT通过Bing搜索功能可以获取更准确的数据和答案,但此功能目前只对ChatGPT Plus用户开放。OpenAI因发现此功能会在某些情况下出现故障,且有些用户可能利用此功能绕过付费墙,故决定停止此功能。
ChatGPT的网络浏览功能受限:探索其背后的安全问题
AI情感助手

ChatGPT的网络浏览功能受限:探索其背后的安全问题

这篇文章主要报道了OpenAI近日宣布停止ChatGPT的网络浏览功能「使用Bing浏览」。原因是该功能遭到了滥用。OpenAI曾表示,此前仅供付费用户使用的ChatGPT Browse with Bing是一项测试版功能,但它有时会以不符合期望的方式显示内容。尽管OpenAI已经收到了很多关于这项功能的反馈,并且计划重新上线,但具体的时间表尚未公布。此外,由于安全问题的担忧,OpenAI正在尝试为ChatGPT加入各种插件,以使其更具实用性,但这些插件的功能范围被限定在可检索信息,不包括「事务」操作,如表单提交,以避免出现安全问题。然而,这些限制并不能完全阻止AI对网络资源的滥用。