AI情感助手
12月14日,2023年《自然》年度10大人物(Natures 10)正式揭晓,除了从全球重大科学事件中评选出的10位人物——5位男性,5位女性,今年还有1位非人类上榜——美国人工智能公司OpenAI发布的聊天机器人ChatGPT。 事实上,ChatGPT应当是荣登《自然》11大人物,这本身就改变了历史,也改变了《自然》的评和选规则。改变《自然》的规则还体现在,ChatGPT并非自然人,但是《自然》又把它当成自然人。 当然,ChatGPT改变历史的不只是《自然》的规则,而是与其他10大人物一样可能对人类社会产生巨大的影响,并改变历史的进程。《自然》评选的10大人物其实并不亚于每年的诺贝尔奖获得者,因为他们都是各个领域的佼佼者和卓有贡献者,而且范围比诺贝尔奖还广泛,包括自然、人文和社会各个领域,如这次的10大人物之一有巴西的环境部长玛丽娜·席尔瓦(Marina Silva),理由是她守护亚马逊雨林。 对于为何要将ChatGPT 评选为《自然》11大人物,该杂志编辑部的理由是:“虽然(ChatGPT)这个工具不算人物,也不完全满足《自然》10大人物的评选条件,但我们将其破例纳入榜单,以承认生成式人工智能给科学发展和进步带来的巨大改变。” 实际上,ChatGPT比《自然》评选的任何人物的知名度和影响力更大,而且对未来人类社会的影响更为巨大和深远,因此ChatGPT应当算是11大人物之首。从2022年11月ChatGPT作为免费使用的自动对话代理(聊天机器人)发布以来,就一直占领着全球各种新闻头条,不只是科学界,整个社会都切身感受到其震撼人心的影响。 ChatGPT不是一个人,但他是千万个人,是无数人的集结和投影。美国的OpenAI公司创建了ChatGPT,它的基础和建材是拥有数千亿参数的神经网络,这个神经网络是建立在一个巨大的在线书籍和文档语料库上并进行训练,估计耗资数千万美元。还有大量研究人员、编辑评估它的回答,以进一步完善和塑造其输出的内容。2023年,OpenAI升级了ChatGPT的底层大型语言模型(LLM),并将其与其他程序连接起来,以便该工具可以接收和创建图像。 这也意味着ChatGPT是一个目前为止最有实力也最有知识的百科全书式的“巨人”,它胜过无数的教授、学者、工程师、作家、医生、药剂师、会计、精算师、设计师、记者和几乎所有人类的专业人员。因此,《自然》将其列为年度十一大人物有充分的理由,有谁能胜过或强大于有数千亿参数的神经网络的ChatGPT呢? 尽管ChatGPT看起来十分强大,但从某种角度看,它也不过是一个泥足巨人,在应对很多简单的问题上,并不如一位活生生的自然人。原因有很多,如缺少背景,训练它的知识有限等,但最重要的是,它所获得的知识和训练以及输出的信息都是不确定的,因为它没有像人那样可以明察人类社会世事和自然的分辨能力,以及逻辑推理能力,当然更缺少人类的情感。它不会像一位小学老师教学生时会极其肯定的说,3+2等于5。如果你挑逗一下ChatGPT说,我老婆说3+2等于6,老婆一定是对的。于是,ChatGPT会马上改口说,抱歉,我错了,3+2应该等于6。 当然,ChatGPT的重大作用和巨大功能已经获得人类认同,而且它将成为人类最重要的工具之一,无论是帮助人们撰写和生产各类产品,如各种文本、编写程序和代码,创作图画,设计药物和疫苗等,都是既快又有一定水准。但是,ChatGPT的局限和弊病也是显而易见的。 有趣的是,此次《自然》的11大人物之一也有ChatGPT的创造者伊利亚·苏茨克维(Ilya Sutskever)。苏茨克维对ChatGPT和其他AI产品是抱有较大的戒备心的,因此,在对待自己所创建的ChatGPT上是比较保守的。他认为,ChatGPT和其他AI如果不受到人类的有效控制,就有可能造成巨大风险和灾难。因此,他现在正通过OpenAI的 “超级对齐 ”项目专注于控制人工智能系统。而且,他认为,OpenAI和其他一些公司应将其代码和训练数据保密,从长远来看,封闭系统将避免让他人制造出强大的人工智能,这是负责任的做法。“到了某个时候,人工智能的能力将变得如此巨大,以至于开源模型显然是不负责任的。” 苏茨克维的观点显然与OpenAI首席执行官山姆·奥特曼(Sam Altman)不一致,并产生了OpenAI内部的“宫斗”,后者先被解职,后来又复职。而奥特曼是极力主张将ChatGPT快速推向市场。但是,此次《自然》将苏茨克维而非奥特曼评为11大人物,体现了《自然》的思考和趋向,ChatGPT和其他AI产品可以研发和使用,但是,一定要小心谨慎。 因为,ChatGPT除了会一本正经地胡说八道外,还有其他方方面面的错误和隐忧,包括帮助作弊和剽窃,帮助诈骗,编造事实,发明参考文献,照搬仇恨言论,传播谣言等。另外,ChatGPT还会扮演任何对话者想要的角色,时而顺从,时而迷人,时而有趣,时而令人恐惧。 所有这些,都是人类设计、训练和使用ChatGPT会产生的问题,如果不对ChatGPT提供的产品和答案进行人工审核和查证,就有可能出错,而且错得离谱。也因此,对于ChatGPT和其他AI软件和工具,除了在技术上要不断完善和改进以适合现在人类的认知和实际情况外,还需要法律的监管。 2023年12月8日,欧盟委员会、欧洲议会和欧盟成员国代表就《人工智能法案》(AI Act)达成初步协议,新法案涉及包括ChatGPT在内的通用目的AI系统。这是全球首份针对AI监管的全面法规,意在保护人类基本权利和不阻碍人工智能行业发展之间寻求平衡。法案将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应规定。 因此,《自然》将ChatGPT列为本年度11大人物不只是因为它会成为人类最好的帮手,而且对它的应用也是人类现在和未来最大和最艰巨的挑战之一。 (本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP) 举报/反馈