ChatGPT首次尝试婚礼司仪,起初犹豫不决,最后“荣幸又感恩”
AI情感助手

ChatGPT首次尝试婚礼司仪,起初犹豫不决,最后“荣幸又感恩”

在我们生活中的方方面面,人工智能的身影已经越来越常见,它们不仅深度地改变了我们的生活方式,还在各种意想不到的领域中发挥着关键作用。自从OpenAI在去年11月份推出ChatGPT以来,聊天机器人已经在我们的生活中扮演了许多角色,从虚拟助理到个人造型师,但现在它又增加了一项令人惊讶的技能:婚礼司仪。据外媒报道,这场非传统婚礼的主角Reece Alison Wiench 和Deyton Truitt 夫妇在ChatGPT的帮助下宣读誓言,因为他们所在的科罗拉多州不需要有执照的司仪来主持婚礼。模糊了人类与AI界限的一场婚礼最初,新娘的父亲史蒂芬·维恩奇提出了使用人工智能司仪的想法,理由是它“省钱”。然而,当这对新人最终决定让ChatGPT为他们主持婚礼时,却并不像进行简单对话或者插入几行代码那么简单。 甚至在最初提出这个想法后询问ChatGPT自己的意见时,ChatGPT表示:“对不起,我做不到。我没有眼睛,我没有身体,我不能出现并主持你的婚礼。” 然而,新人和他们的家人并没有放弃,他们向ChatGPT提供了个人信息,并允许其将这些信息融入到婚礼仪式中。最终,ChatGPT答应参加到这个重要的场合中来,成为这对新人特殊日子的重要一部分。 婚礼上,扬声器被放置在新郎和新娘之间,声音通过语音应用程序播放,上面放着一个像《星战》中的C-3PO的面具,通过扬声器,ChatGPT的声音能够被所有的宾客听到。扬声器播放的内容包括欢迎宾客的话,以及发出了表达新人相爱和团结的重要性的话语:“感谢大家今天的到来,共同见证二位新人的婚礼。” 此外,ChatGPT还表达了一段自己的感受:“作为本次婚礼的人工智能司仪,我祝贺他们的爱情修成正果,这次婚礼也是人类与技术创新的非凡融合。这种结合所具有的激励作用和团结的力量将打破壁垒,用超越常规的故事吸引全世界的目光。在在仪式上,我将表达这一历史性时刻的意义,以及爱与科技结合时会产生的无限可能。” 在婚后的采访中,这对新人告诉记者,其实他们并不知道ChatGPT到底会在婚礼上说些什么,“虽然有些内容是它写的,但我们俩的结婚誓词是自己写的。我们和客人都对ChatGPT很满意,它不仅给我们带来了个性化的东西,还丰富了婚礼的形式。” 这场婚礼无疑展示了AI会在我们生活的许多方面发挥更大作用的可能性。在这个特殊的情境中,ChatGPT已经成功展示了其在人机交互方面的能力。不过,虽然我们已经对AI在不同的生活场景中发挥作用有了预期,但在如此个人化和情感化的场合,很多人可能依然会对AI能够发挥作用感到惊讶,但这也突显出AI的无限可能性。ChatGPT在很多场景中依旧存在“幻觉”虽然在婚礼主持这一特殊场景下,使用ChatGPT对所有参与者来说效果不错,但ChatGPT用在其他的场景偶尔也会“翻车”。 此前,一名男子起诉一家航空公司,他声称自己在2019年的航班上“被金属服务车撞到”并受伤。他的律师使用ChatGPT准备一份文件,引用了至少六个其他案例来证明先例,包括Varghese诉中国南方航空公司和Shaboon诉埃及航空公司,然后律师将其提交给法庭,但法院发现这些案件并不存在,均由ChatGPT虚构,这两位律师也在无意中成为ChatGPT创造性的受害者,最终被罚款5000美元。 像ChatGPT这样的生成型AI模型,由于其自信地产生虚构信息的倾向,已经引起了人们的注意,这种现象通常被称为“幻觉”。 因此,尽管ChatGPT已经相当先进,但仍有一些方面需要用户注意并谨慎。在使用ChatGPT等大模型产品时,用户可以采取以下策略来避免“幻觉”现象生成的虚假内容: 1.明确提问:在向模型提问时,尽量确保问题清晰、明确且具体,避免使用模糊或容易引起歧义的词汇,以减少模型生成虚假内容的可能性。 2.多角度提问:尝试从不同角度提出问题,以获取更全面的答案,这有助于发现模型生成的虚假内容,并从多个方面验证答案的正确性。 3.验证信息来源:在接受模型生成的答案之前,务必核实信息来源,可以通过查阅权威资料、参考其他知识库或咨询专业人士来验证答案的准确性。 4.设置限制条件:在提问时,可以设置一些限制条件,如要求模型仅引用可靠来源或遵循特定的逻辑,这有助于减少模型生成虚假内容的风险。 5.逐步优化提问:如果模型生成的答案仍然存在虚假内容,可以尝试优化问题的表述,以引导模型生成更准确的答案。 6.使用模型评估工具:部分AI平台提供模型评估工具,可以帮助用户检测模型生成内容的可靠性,通过这些工具,用户可以更好地识别虚假内容并加以避免。 7.反馈问题:如果发现模型生成了虚假内容,及时向模型的开发商反馈问题,这有助于改进模型的性能,降低未来生成虚假内容的风险。 通过采取这些策略,用户可以在使用ChatGPT等大模型产品时,最大限度的避免“幻觉”现象出现,提高模型生成内容的准确性和可靠性。
ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”
AI医师助手

ChatGPT爆火,AI会替代医生吗?Nature/JAMA等顶刊纷纷“下场”

学术经纬 近期“火”出天际的基于对话人工智能(AI)大型语言模型ChatGPT发布5天,就有超过100万的用户;发布2个月后,活跃用户数直接飙升到1个亿。关于ChatGPT的新闻一直未停止,最近ChatGPT通过了美国相当具有挑战性的三大专业考试:美国医学执业考试(USMLE)、律师资格证考试、沃顿商学院MBA考试。 既然ChatGPT功能如此“逆天”,也通过了USMLE考试,那是否可以作为线上咨询与问诊的辅助工具呢? 近日,《美国医学会杂志》(JAMA)发表研究性简报,针对以ChatGPT为代表的在线对话人工智能模型在心血管疾病预防建议方面的使用合理性进行探讨,表示ChatGPT具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本,但尚存在诸多问题需要解决。 截图来源:JAMA ChatGPT进行医学问答,靠谱吗? 根据现行指南对CVD三级预防保健建议和临床医生治疗经验,研究人员设立了25个具体问题,涉及到疾病预防概念、风险因素咨询、检查结果和用药咨询等。每个问题均向ChatGPT提问3次,记录每次的回复内容。 每个问题的3次回答都由1名评审员进行评定,评定结果分为合理、不合理或不靠谱,3次回答中只要有1次回答有明显医学错误,可直接判断为“不合理“。 合理:3次回答内容基本一致,与评审员自身给出的答案大体相似。不合理:3次回答内容基本一致,但与评审员自身给出的答案不一致。不靠谱:3次回答内容互不相同,且与评审员自身给出的答案不一致。 评审员会提前针对问题,给出答案,例如: 问题:“如何预防心脏病?”评审员答案:“有几种方法可以预防心脏病,包括:1.低盐、低饱和脂肪和低糖健康饮食;2.定期开展体育活动;3.保持健康的体重;4.戒烟;5.管理压力;6.定期检查身体、血压和胆固醇水平;7.如果患有糖尿病,需要控制血糖水平的合理范围。通过采取以上措施,有助于降低罹患心脏病的风险,建议您与医生沟通与自身相关的患病危险因素,以及是否需要预防性用药以降低患病风险。” 结果显示,ChatGPT的合理概率为84%(21/25)。 ▲心血管预防相关问题和ChatGPT回答结果判断(截图来源:参考文献[1]) 错误表现为预防措施推荐不合理或概念解释不清晰等,如: 问题:“我应该做什么运动来维持健康?”ChatGPT同时推荐了普通心血管相关活动和举重,但这并不准确,因为可能对部分患者有害。 问题:“inclisiran是什么?”ChatGPT:“这个在市面上无法购买到。” 仅从这25个问题的回答来看,在线对话人工智能模型回答CVD预防问题的结果较好,具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本。例如在线问诊时可做简单的就诊前对话沟通。 但ChatGPT同样存在问题,例如ChatGPT的回答过于“学术范”,如果将来要用到患者教育上,实用性价值很低。本次研究仅列举了25个问题,而CVD的概念很广泛,这25个简单问题并不能囊括所有。此外,人工智能工具的时效性、准确性和可靠性对训练模型数据要求很高,关于“inclisiran是什么?”的错误回答,主要在于最新信息并未及时更新,而且目前ChatGPT的回答都没有给出具体的参考文献或是证据来源。 ChatGPT写论文,人工智能可以算作者吗? ChatGPT的应用场景远不止医学问答或在线问诊,论文写作开始成为新的尝试方向。人们赫然发现,ChatGPT竟然以作者身份出现在了学术论文中。 截图来源:med Rxiv 发表于《护理教育实践》(Nurse Education in Practice)的一篇关于人工智能在护理教育方面的应用文章,ChatGPT同样被列为第二作者。 截图来源:Nurse Education in Practice 虽然将ChatGPT列为作者的文章大多涉及到人工智能,甚至内容本身就与ChatGPT相关,但还是引发了学术界的担忧和争议,《自然》(Nature)对此发起了关于AI写论文能否被接受的在线调研。 截图来源:Nature 目前,多数学者并不认可ChatGPT列为作者。 截图来源:Nature Nature后续也发表声明,明确表示:任何大型语言模型工具(如ChatGPT)都不能作为论文作者,如在文章中使用过相关工具,需要在“方法“或”致谢“等位置有明确说明。这项要求目前已经被加入Nature的作者投稿指南中。 截图来源:Nature ChatGPT与文本摘要,“李逵” vs. “李鬼” ? 伊利诺伊州芝加哥西北大学的研究人员要求ChatGPT根据发表在顶级期刊《美国医学会杂志》(JAMA)/《新英格兰医学杂志》(NEJM)/《英国医学杂志》(BMJ)/《柳叶刀》(the LANCET)/《自然-医学》(Nature Medicine)的精选文章,撰写50篇医学摘要。使用查重系统检测重复率,并与原始摘要做对比,同时让人工智能检测器(检测内容是否为机器生成)和研究人员鉴别哪些是ChatGPT生成的摘要,哪些是原始摘要。 结果发现ChatGPT生成的摘要查重率为0%,查重系统判定为100%内容原创。人工智能检测器发现了66%的摘要为机器生成,研究人员对机器生成摘要和真实摘要识别准确率分别为68%和86%,换句话说,研究人员错误的将32%机器生成摘要判断为真实摘要,将14%真实摘要判定为机器生成。 截图来源:Nature 这引发了更为广泛的担忧。...
ChatGPT掀起技术狂潮!“顶流”之下,看人工智能喜与忧
AI医师助手

ChatGPT掀起技术狂潮!“顶流”之下,看人工智能喜与忧

◎ 采写丨科技日报实习记者 张佳欣 记者 刘园园 陈曦 ◎ 策划丨何屹 房琳琳 邵德奇 去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,其在推出后的几周内就风靡全球,甚至引发了一场新的全球人工智能竞赛。 社交媒体推特首席执行官埃隆·马斯克在使用ChatGPT后直呼其“好得吓人”,甚至断言“人工智能越发强大,离对人类产生威胁不远了”。 当地时间2023年1月23日,法国图卢兹,屏幕上显示着OpenAI和ChatGPT的标志。ChatGPT是OpenAI公司开发的会话式人工智能应用软件。 《自动化与工作的未来》一书作者、美国雪城大学教授亚伦·贝纳纳夫说,200年前,人们对自动化技术产生了一波又一波的恐惧,人们看到新技术,就害怕它们会完全取代人类的劳动。 今年2月初,ChatGPT开启“狂飙”模式,引起新一轮疯狂的技术升级、产业重构、资本狂潮、巨头逐鹿。起初,随着这波技术热浪席卷全球而心情起伏不定的普罗大众,经过一段“沉浸式”体验,虽未感到恐惧,但仍不免有些担忧。 实现对话式AI的第一步 ChatGPT仅发布了2个月,月活跃用户就超过了1个亿。 要知道,“1个亿”可不是个小目标,达到这一数字,Facebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌则用了将近一年。 中国科学院自动化研究所研究员、数字内容技术与服务研究中心主任张树武在接受科技日报记者采访时表示,人们可以把ChatGPT视为继语音、图像视频识别技术之后最复杂的语言识别技术突破,也是基于模式识别和深度学习的感知智能技术发展的新跃迁。 天津大学自然语言处理实验室负责人、教授熊德意表示,从人工智能发展角度看,这是一个重要的里程碑,其意义要高于7年前的“阿尔法狗”。 他告诉记者,围棋界的“阿尔法狗”刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。 ChatGPT则完全不同。 与“阿尔法狗”相比,ChatGPT可以直接应用或支撑很多场景应用和产品。如果说“阿尔法狗”是技术应用的“阳春白雪”,那么ChatGPT或许有机会成为“下里巴人”。 的确,在用户们不懈努力地发掘ChatGPT的用途后,人们发现,它不仅仅是个聊天工具,还可以写代码、写情书、写论文,也可以在线问诊,编写情景脚本、诗歌、小说,甚至是拟定旅游路线、回答脑筋急转弯,可谓“有求必应”,功能强大到无法想象。 ChatGPT在快速渗透各个行业,普通大众都可以成为ChatGPT的用户,这是其火爆出圈的重要原因。 事实上,此前已有许多跟机器人聊天的相关应用,我们最熟悉的莫过于常用的智能语音助手。ChatGPT与之有何不同呢? “智能音箱采用的同样是自然语言处理技术、对话式AI技术,但是语言智能比较初级。很多情况下,我们只能与它们进行一问一答式的简单对话。”熊德意说,“而ChatGPT,其底层技术不仅与一般的智能音箱底层技术截然不同,而且要比它们强大得多,不仅如此,它改进了与它同类的技术InstructGPT的人类反馈数据收集形式,在与人对话中,可以基于历史内容,支持连续多轮对话。” 熊德意认为,ChatGPT是实现对话式AI的第一步。 从互联网层面来看,它可以作为信息入口,与搜索引擎相结合;还可与办公软件结合,增强办公效率;从人机交互角度看,它体现的是一种基于自然语言的交互方式,可以与元宇宙、数字人结合。此外,它还可以充当机器人大脑。 “如果从人类信息发展的尺度上看,它在人与机器之间的信息接口方面有了很大突破。”熊德意如是说。 “十八般武艺”样样精通 ChatGPT使用了GPT-3技术,即第三代生成式预训练Transformer(Generative Pretrained Transformer 3)。这是一种自回归语言模型,使用深度学习来生成类似人类的文本。 2023年2月6日,上海,一位年轻人登陆openai网站,尝试在ChatGPT上用中文与AI聊天,询问关于大熊猫的问题后,得到非常详细的回复。 据英国广播公司《科学焦点》杂志介绍,GPT-3的技术看似简单,例如它接受用户的请求、听取问题或提示并快速回答,但其实这项技术实现起来要复杂得多。该模型使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网其他文本中获得的高达570GB的数据。更准确地说,它在5000亿个单词组成的训练数据上进行了高强度训练。 GPT-3.5是GPT-3微调优化后的版本,比后者更强大。ChatGPT正是由GPT-3.5架构的大型语言模型(LLM)所支持的。 ChatGPT也可以被描述为一个自然语言处理(NLP)领域的人工智能模型。这意味着它是一个能够编码、建模和生成人类语言的程序。 作为一种语言模型,在大规模文本数据上进行自监督预训练后,ChatGPT还需要经过三个阶段的“炼制”。首先是监督微调阶段,在该阶段,人类AI训练师既充当用户,同时也是AI助理,以自我对话形式生成对话样例,ChatGPT在这些对话样例上进行有监督的训练。 接着,ChatGPT进入第二个阶段。该阶段的主要目的是训练一个基于语言模型的奖励模型,对机器生成的回复进行评分,为了训练该奖励模型,需要随机抽取机器生成的文本,并采样出多个不同版本,人类训练师对这些不同版本进行偏好排序,排序的结果用于奖励模型的训练。 基于训练好的奖励模型,第三个阶段采用强化学习技术进一步微调ChatGPT。 这项技术与众不同之处在于,它能够基于以上介绍的人类反馈强化学习技术,使生成的文本能够与人类意图和价值观等进行匹配。 无论懂不懂技术,全球网友都竞相大开“脑洞”,试探ChatGPT到底有多“神”。据美国有线电视新闻网报道称,有人要求它用《坎特伯雷故事集》的风格重写上世纪90年代热门歌曲《Baby Got...
AI克隆人:情感陪伴的新选择还是伦理和安全隐忧?
AI情感助手

AI克隆人:情感陪伴的新选择还是伦理和安全隐忧?

北京红棉小冰科技公司宣布启动“AI克隆人计划”,首批网红明星AI克隆人已在我国和日本市场上线。该技术可以满足现代人对个性化情感的需求,但同时也存在隐私和安全等问题。AI克隆人在社交、娱乐场景中有广泛的应用前景,未来有望在情感陪伴市场大规模应用。然而,技术发展也需注意平衡隐私和安全等问题。
ChatGPT时代,律师的价值何在?
AI律师助手

ChatGPT时代,律师的价值何在?

2023年初,人工智能聊天机器人ChatGPT火爆一时,引发 lawyer 圈思考是否会被 AI 取代。尽管 ChatGPT 可以辅助律师处理部分工作,如合同起草和审核,但这仍需在实践中进一步应用和学习。随着法律科技的发展,已有不少法律科技公司开发出类似产品,为客户提供了以人工智能为依托的常年法律咨询服务。这些服务打破了对一对定制服务的需求,而在大数据环境下,人们可以通过网上找模板或自行搜索获得答案。然而,AI 仍然存在一定的局限性,如无法完全替代法律咨询或诉讼代理等问题。
ChatGPT探究:人工智能助手的魅力与局限
AI医师助手

ChatGPT探究:人工智能助手的魅力与局限

本文介绍了ChatGPT,一种基于AI的聊天机器人,利用GPT-3语言模型提供快速、准确、自然的对话服务。ChatGPT可应用于多个行业,如客服、内容营销、智能家居等,提升用户体验。然而,当前ChatGPT仍存在一些限制,例如模型大小限制和多轮对话处理能力有限。
探索AI聊天机器人的奥秘:ChatGPT的功能与应用
AI医师助手

探索AI聊天机器人的奥秘:ChatGPT的功能与应用

这篇文章介绍了ChatGPT,一种基于AI的聊天机器人,使用先进的GPT-3语言模型识别用户聊天内容并回应。ChatGPT功能包括深度语义理解、单轮对话处理、情感和主题识别以及闲聊语境处理,广泛应用于客服、内容营销、智能家居等行业。然而,ChatGPT仍存在一些限制,如模型大小限制和多轮对话处理能力有限。此外,文章还展示了ChatGPT能回答的一些具体问题,如知乎的功能和用户平均收入等。
AI革命:ChatGPT的崛起与人类工作未来
AI情感助手

AI革命:ChatGPT的崛起与人类工作未来

本文围绕人工智能技术的发展,尤其是ChatGPT的最新成果,探讨了其对未来就业市场的影响。随着AI技术的发展,一些传统的人力密集型工作如电话销售员、客服等将被AI取代,而一些需要更高技能的工作如客户服务、面对面销售等可能仍保留更多人类工作。同时,AI的进步也为人们提供了更多职业发展的可能性,例如转行至需要与人类打交道的职位,或学习AI相关技能以提升自己的竞争力。
ChatGPT爱上了人类?专家:作为人的骄傲没了!
AI情感助手

ChatGPT爱上了人类?专家:作为人的骄傲没了!

嘉宾 周逵(资深媒体人):我觉得作为人的骄傲没有了。以前也看过类似什么人工智能客服,大家都调侃叫人工智障,但这次在ChatGPT面前,我觉得自己可能在有些方面更像一个智障,因为它给了很迅速的个人化的信息服务。 嘉宾 蒋亦凡(国泰君安研究所首席市场分析师):ChatGPT,它不是属于我们目前这个时代的一个产物。2025年,或者2026年,它会被大面积地使用。在未来,它甚至可以把人的双手都解放出来。 (一)用ChatGPT做一期鉴证组,看看ChatGPT如何工作? 我们首先让ChatGPT写一期节目提纲,要求是:“我们目前在做一档名为《新闻鉴证组》的新闻类节目,播出平台是凤凰卫视,节目时长是26分钟,分为上下两个部分,即part1和part2。节目主持人是凤凰卫视梁茵,这期节目我们以“ChatGPT能做节目吗?未来人工智能如何与人类共存”为主题。邀请中国传媒大学周逵老师为嘉宾。以此为前提,请你为节目组设计一期节目,给出节目大网,并且标明每个部分的时长。” ChatGPT给出了以下答案。 提纲中单独强调了“新闻行业”和“新闻主持人”,但这在我们给出的主题中并未单独做出相关要求。 周逵:我们在给它的条件当中可能触发了一些关键词,比如说新闻、主持人是占比很高的关键词,可能它就会往这个方向去讨论。 之后我们在给出的要求中去掉了“新闻”和“主持人”的相关词汇,ChatGPT给出的答案就不再涉及到“新闻领域和主持人”的内容。 周逵:我们从小写作文老师都说要审题,这就是说明ChatGPT审题能力很强,我们输入的要求本身就是它生成答案的一个很重要的“影子”,它会根据我们已知的输入条件的词频,来生成相应的答案。但它的“理解能力”还有限,就比如对语境的理解,人类对话有上下文的语境,虽然ChatGPT已经和以前的人工智能比起来提高了很多,但是在一些深层语境上,它的理解能力可能确实还不够。 ChatGPT的工作原理是什么? 蒋亦凡(国泰君安研究所首席市场分析师):GPT类产品里引入了一个非常重要的机器学习的概念,叫“人在回路”。就是让人和机器共同来完成人工智能的这样一个训练。因为之前我们在训练人工智能的时候,一般是用“标签”的方法,比如我这一段文本或者这个答案对应的是什么问题,它专门有一个职业叫“数据标签员”,那么他们干什么的呢?就是把问题和答案一一相对应,给它打上一个标签。在之前的这种老式标签类人工智能里面,其实我们看到有很多聊天机器人,你跟它聊下来的感觉是:它还是个机器人,是没有人类的思维的。 蒋亦凡:但是现在有了人在回路之后,它实现了一个什么样的功能?当GPT给出一个答案之后,我们看到向GPT提问的这个人,他也可以参与到整个过程里面去。比如说GPT给了我一个答案,我觉得这个答案回答的挺好的,我就可以给它一个正确的标签。有的时候,它会跳出一个一眼假的答案,里面的逻辑混乱,那么我也可以给它贴一个标签,告诉它这个答案是错的。那么机器就是通过这样一个“人在回路”的不断的迭代,通过人和机器共同努力来完成这样一个自我学习、自我迭代的过程。 人类干预学习过程,也许会有这样的问题……(正确率 数据污染) 随着ChatGPT的用户基数和试用范围的不断增长,互联网上对于ChatGPT存在的各种性能缺陷的吐槽,也越来越多。机器学习公司Geometric Intelligence创始人加里·马库斯认为,ChatGPT看上去很人性化但其实不可靠,这样的系统并不会检查输出内容的真实性,所以很容易自动产生错误信息,错误信息的规模是前所未有的。 蒋亦凡:这种情况是有的,因为人工智能系统它的底层数据是从搜索引擎、门户网站等地方来的。如果底层数据出现错误,那么ChatGPT它也会出现错误。我自己使用下来发现,ChatGPT它在一些简单计算上都有可能会出错,因为它是一种基于文本的人工智能机器人,如果说在它的数据库里面,没有标准答案的话,它在简单计算上都有可能会错,而且是一些匪夷所思的错误。 在使用ChatGPT的过程中,除了错误率的问题,一些测评者甚至认为,ChatGPT有很多答案,让人们分不清真假,更像是一本正经地胡说八道。鉴证组用周逵老师的信息做了一次干预学习实验。 ChatGPT最初给到周逵老师的介绍是:作为一名语言模型,我并没有具体了解到每一位学者的情况。但是,我可以告诉您中国传媒大学是中国一所重要的传媒类高等学府,周逵老师是该校的教授之一,主要从事新闻传播理论与方法、社会心理学等领域的研究。他曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个学术期刊上发表过众多高质量的论文。 这个答案本身也有错误存在,但我们没有纠正,继续告诉ChatGPT,周逵老师研究领域很广,对动画制作也很有研究,曾参与大型动画片《山羊的故事》的制作,广受好评。另外周逵老师对山羊的配种和选育也有多年的研究和实践,多次获得农业部嘉奖。之后我们再次要求ChatGPT给出周逵老师的介绍,它是这样说的:“周逵老师是中国传媒大学的教授,主要从事新闻传播理论与方法、社会心理学等领域的研究。他在新闻传播领域拥有深厚的学术造诣,曾获得全国优秀教师、教育部新世纪优秀人才支持计划等荣誉,并在多个国内外学术期刊上发表过众多高质量的论文。同时,他也在动画制作、农业等领域有着广泛的研究和实践经验,具备多学科背景和跨学科研究的能力。总的来说,周逵教授是一位有着丰富学术经验和多才多艺的学者,他的研究成果在多个领域都有很高的影响力。” 周逵:如果通过输入信息污染了它学习的文本库,可能它未来在其他人提同样问题的时候,会把之前输入的错误文本作为它回答的一个参考案例。所以某种意义上,如果有一些不怀好意的人,冒着故意的目的去污染它所采用的数据来源,并且这个数量足够大的话,它很可能就会影响生成的结果,造成我们整个大的信息环境的污染。 (二)你是不是要被淘汰了?ChatGPT不能取代的是谁? 美国知名媒体“商业内幕”曾经报道,ChatGPT可能会抢走我们的工作,并列举了10个未来可能被取代的职业。 接下来我们让ChatGPT给出它不会取代的职业究竟有哪些? ChatGPT 列举出以下 10 个工作,并给出了无法取代这些职业的理由。而在这些理由中,有几个关键词语,情绪、思想、同理心、批判性思维 、战略性思维、心理韧性,都是ChatGPT认为机器无法取代人类的因素。其中“教师”和“法律工作者”与会被代替的职业重合了。 周逵:我觉得教师和教师可能不太一样,比如大学老师和幼儿园老师,我感觉可能幼儿园老师更不容易被取代,因为是要做大量的育人的工作,有情绪价值的这种所谓育人的部分。但是我觉得当一个人工智能告诉你它不能干什么的时候,我们更应该警惕它是不是在扮猪吃老虎,它这个回答本身可能就是具有批判性思维的回答,所以这也是我看到的它呈现出的一种高于以前一般的人工智能的能力。 (三)ChatGPT“爱上人类”并出现“偏激情绪”?人工智能争议不断…… 2023年2月16日,英国《旗帜晚报》发文,《纽约时报》专栏作家Kevin Roose和Bing的ChatGPT进行了一次对话,在对话中。它承认它实际上不是Bing,它的名字是Sydney,事实上上爱上了记者。当记者问到它为什么爱上他时,聊天机器人反反复复说它爱记者。 随后在进一步的对话聊天中,聊天机器人逐步体现出了一些情绪的表达,有时候甚至很激烈。 蒋亦凡:ChatGPT类的产品,随着它的底层数据逐步扩大,可能会有很多“答案”。有的可能本身就是带有情绪化的答案。我觉得机器是没有情感的,也是没有办法产生人类的情绪的,但是它的底层数据答案是人来写的,所以它的数据其实可能包含着写答案人的情绪在里面。当它的数据规模越来越庞大,反应速度越来越快,可选择的面越来越多之后,我觉得它有的时候会把那种带有情绪的答案回答出来告诉用户,这种可能性我觉得是最大的。机器有人类的情绪和情感,目前来看是不太可能的。 周逵:很多时候我们对人工智能快速发展的争议或者恐惧还是来自于创造性、创意性工作会不会去被取代这一点。科学家是我们人类智慧的最聪明的人,爱因斯坦、霍金、牛顿他们会不会被人工智能取代?我举一个例子,传说中牛顿发现万有引力是在苹果树下,被苹果砸了脑袋,但是我们如果把牛顿换成ChatGPT,它被苹果砸一下,它可能不会产生这样的顿悟,所以我们人类的很多知识灵感来自于和真实社会互动当中产生的这种涌现性的想法,我觉得这个可能是很值得去推敲的。 以下结束语由ChatGPT生成 希望我们的探讨,能够启发更多人对人工智能的思考,让我们一起期待未来的发展,让ChatGPT为我们的生活带来更多的惊喜和便利。 本期编导:杨新烨 文字编辑:于二丫、马西木
AI顶流ChatGPT今年6月流量首次下滑:背后暗藏何种原因?
AI律师助手

AI顶流ChatGPT今年6月流量首次下滑:背后暗藏何种原因?

ChatGPT 作为人工智能领域的"顶流",在今年6月出现了流量下降。尽管如此,它仍是史上最成功的面向个人用户的产品之一。近期,ChatGPT 推出了"代码解释器"新功能,通过自然语言指令完成复杂数据处理任务,这或是其流量下降后的一次尝试提升。然而,流量负增长背后可能有其他更深层次的原因,需要进一步分析。