文章主题:科技新知, 过去的表现并不能保证将来的结果, 模型漂移, 衰退或过时

666AI工具大全,助力做AI时代先行者!

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

图片来源@视觉中国

文 | 科技新知

过去的表现并不能保证将来的结果。”这是大多数金融理财模型的小字。

在产品业务领域内,我们常常会遇到一种现象,即模型的性能随着时间推移逐渐降低,这种现象被称为模型漂移、衰退或过时。这种变化是不可避免的,因为模型需要不断地根据实际情况进行优化和调整。因此,我们需要关注的是如何保证模型质量,以便确保其能够持续地为业务带来价值。在评估模型质量时,我们可以采用多种指标,如准确率、平均错误率等,同时还可以结合一些下游业务的KPI,例如点击率,从而全面地衡量模型的表现。

在众多模型中,没有哪一个能够永久保持高效性,各种模型的衰退速度各有差异。然而,在特定环境下,一些产品能够长期运行而不需要进行更新,如某些计算机视觉和语言模型,以及在隔离、稳定的环境中运行的决策系统,例如在常见的实验条件下。

在确保机器学习模型准确性的过程中,每日对新数据进行训练是必要的,这也是该领域的通用原则所要求的。然而,这种方法存在一定的局限性,即模型一旦训练完成,便无法轻易地进行更新以适应新的变化。正因如此,与软件部署不同,人工智能的部署过程并未一蹴而就,而是需要不断进行调整和优化。尽管某些技术可能已经过时,但它们仍可以在每个字节中得以保留和使用。这既是该领域的一个显著特点,也是我们需要不断克服的挑战之一。

以ChatGPT为代表的最前沿人工智能产品,在经历了一段时间的人气衰减之后,引发了关于其是否已经进入衰退阶段的讨论。

在 ChatGPT 上,用户花费的时间正在持续减少。从 2023 年 3 月的 8.7 分钟下降到同年 8 月的 7 分钟,这反映出了什么?显然,随着大型模型工具的迅速普及,生产力工具的 ChatGPT 已经无法满足主流使用群体 Z 世代的需求。他们对于更加智能、个性化的工具有着更高的期待,而不仅仅只是将其视为一个普通的生产力工具。

在AI时代应用商店领域,OpenAI想要巩固其主导地位,但目前的人气还不足以对其产生重大影响。更为关键的问题在于,ChatGPT的生产力逐渐减弱,这才是导致许多老用户对其信任度降低的主要原因。自从今年5月份以来,OpenAI论坛上关于GPT-4性能不如以前的帖子,一直引发着广泛的讨论。

ChatGPT是否已经过时以及大模型是否会像过去的机器学习模型一样衰老,是当前人工智能领域中备受关注的问题。对于这些问题,我们需要有深入的理解。因为只有理解了这些基本问题,我们才能在大模型热潮中找到人与机器可持续发展的道路。首先,我们要明白的是,ChatGPT并不是一个孤立存在的人工智能系统,而是人工智能技术的一个组成部分。就像机器学习技术中的其他算法和模型一样,ChatGPT也有其特定的应用场景和优缺点。因此,评价ChatGPT是否过时,需要将其置于更广泛的人工智能技术和应用环境中进行考虑。其次,我们需要认识到,人工智能系统的衰老并非是一个单一的现象,而是涉及到多个方面的因素。例如,随着模型的复杂度增加,模型的训练和推理时间可能会增加;同时,随着数据的减少或质量的下降,模型的性能可能会下降。因此,要解决人工智能系统的衰老问题,需要从多个角度进行思考和探索。最后,我们要看到,人工智能技术的进步和应用并不意味着我们应该忽视人机交互和人类智慧的重要性。相反,我们应该利用人工智能技术来 augment 和增强人类的智能,让人类能够更好地适应和引领未来。因此,对于ChatGPT这样的大模型,我们更应该关注其如何与人类智能相互融合,而不是简单地评价其是否过时。综上所述,ChatGPT是否过时以及大模型是否会像过去的机器学习模型一样衰老,都需要我们从多个角度进行思考和探讨。只有这样,我们才能在人工智能技术不断发展的过程中,找到人与机器可持续发展的道路。

ChatGPT过时了吗?

根据Salesforce AI软件服务商最近公布的数据,我们发现,在大模型使用者中,有67%的是Z世代或千禧一代。而在生成AI或相对落后于这一领域的人群中,超过68%的人是X一代或婴儿潮一代。这表明,随着技术的不断进步,年轻一代对于AI的应用能力正在逐渐提升,而老一代表则相对滞后。

代际差异说明Z世代正在成为拥抱大模型的主流人群。Salesforce产品营销人员Kelly Eliyahu表示:“Z世代实际上是AI一代,他们构成了超级用户群体。70%的Z世代正在使用生成式AI,至少有一半的人每周或更长时间使用它。”

不过作为大模型产品的领军者,ChatGPT在Z世代人群中的表现并不出色。

根据市场调研机构Similarweb 7月份的数据显示,ChatGPT在Z世代人群中的使用占比为27%,低于4月份的30%。作为对比,另外一款可以让用户自己设计人工智能角色的大模型产品,Character.ai在18-24岁年龄段的人群中渗透率为60%。

得益于Z世代的追捧,Character.ai的iOS和Android应用程序目前在美国的月活跃用户数为420万,距离移动端ChatGPT的600万月活,日益接近。

和ChatGPT的对话式AI不一样,Character.AI在此基础上加入个性化、UGC两大核心功能,使其有了比前者更丰富的使用场景。

一方面,用户可以根据个人需求自定义AI角色,满足Z世代个性化定制的需求。同时这些用户自主创建的AI角色,也可以被平台所有用户使用,构建AI社区氛围。比如此前在社交媒体平台传播出圈的苏格拉底、God等虚拟人物,以及官方自主创建的马斯克等商业名人的AI形象。

另一方面,个性化的深度定制+群聊功能,也使得用户对于平台产生情感智能依赖。很多社交媒体平台的用户公开评价显示,因为聊天体验过于逼真,就像“自己创作的角色拥有生命,就像在与真人交谈”,“是迄今为止最接近假想朋友、守护天使的东西”。

可能是来自Character.AI的压力,2023年8月16日OpenAI在官网发布了一则简短声明,宣布收购美国初创企业Global Illumination,并将整个团队纳入麾下。这家仅有两年历史八位员工的小公司,主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。

收购行为的背后,很可能意味着OpenAI将致力以丰富的方式,改善目前的大模型数字体验。

人工智能的衰老化

ChatGPT在大模型数字体验层面的老化,影响了其杀时间的效果。作为生产力工具,其生成结果准确性的飘忽不定,也正在影响其用户黏性。

此前根据Salesforce的调查显示,有近六成的大模型使用者认为,他们正在通过累计时间的训练掌握这项技术。不过目前这种技术的掌握,正在随着时间的迁移发生变化。

早在5月份,就有大模型老用户在OpenAI论坛上开始抱怨GPT-4,“在以前表现良好的事物上表现出困难”。据《Business Insider》7月份报道称,很多老用户将GPT-4与其以前的推理能力和其他输出相比,形容为“懒惰”和“愚笨”。

由于官方并未对此作出回应,人们开始对GPT-4性能下降的原因进行推测,会不会是因为此前OpenAI的现金流问题?主流猜测集中在成本优化导致的性能下降方面。一些研究者称,OpenAI可能在API后面使用了规模较小的模型,以降低运行ChatGPT的成本。

不过这个可能性随后被OpenAI的产品副总裁Peter Welinder否认。他在社交媒体上表示:“我们没有让GPT-4变得更笨,目前的一个假设是,当你更加频繁地使用它时,会开始注意到之前没有注意到的问题。”

更多的人、更长时间的使用,暴露了ChatGPT的局限性。对于这种假设,研究者试图通过更严谨的实验呈现“ChatGPT性能和时间关系的变化”。

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

来自斯坦福大学和加州大学伯克利分校在7月份提交的一篇题为《How is ChatGPTs behavior changing over time?》的研究论文显示:同一个版本的大模型,确实可以在相对较短的时间内发生巨大变化。

从3月份到6月份,研究者测试了GPT-3.5和GPT-4两个版本,采集了四个常见的基准任务数学问题、回答敏感问题、代码生成和视觉推理的生成结果,并进行评估。结果显示,无论是GPT-3.5还是GPT-4,二者的性能和生成结果,都有可能随时间而变化。

数学能力方面,GPT-4(2023年3月)在识别质数与合数方面表现得相当不错(84%准确率),但是GPT-4(2023年6月)在相同问题上的表现不佳(51%准确率)。有趣的是,CPT-3.5在这个任务上6月份的表现要比3月份好得多。

不过在敏感问题方面,GPT-4在6月份回答敏感性问题的意愿较3月份下降;代码能力方面,GPT-4和GPT-3.5,都在6月份表现出比3月份更多的错误。研究者认为,虽然ChatGPT的性能和时间没有明显的线性关系,但是准确性确实会飘忽不定。

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

这不仅是ChatGPT自己的问题,也是此前所有AI模型的通病。根据麻省理工学院、哈佛大学、蒙特雷大学和剑桥大学2022年的一项研究表明,91%的机器学习模型都会随着时间的推移而退化,研究者将这种现象称为“人工智能老化”。

例如,Google Health曾经开发了一种深度学习模型,可以通过患者的眼睛扫描来检测视网膜疾病。该模型在训练阶段的准确率达到90%,但在现实生活中却无法提供准确的结果。主要是因为在实验室,采用高质量的训练数据,但是现实世界的眼睛扫描质量较低。

受制于机器学习模型老化的情况,过去走出实验室的AI技术,以单一的语音识别技术为主,智能音箱等产品因此最先普及。根据美国人口普查局2018年对58.3万家美国公司的调查,只有2.8%使用机器学习模型来为其运营带来优势。

不过伴随着大模型智能涌现能力的突破,机器学习模型的老化速度明显减弱,逐渐走出实验室面向更广泛的受众。不过,涌现能力的黑盒下仍有不可预测性,让不少人对于ChatGPT能否长期保持AI性能的不断提升提出质疑。

黑盒下的抗衰老性

人工智能老化的本质,其实是机器学习模型的范式缺陷。

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

过往,机器学习模型是按照具体任务和具体数据的对应关系进行训练。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,再调节一下模型的权重,从而输出恰当的结果。这种思路下,每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。

新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也会导致过去做得好的事情突然做不好了,进一步限制应用。总结来看,传统的机器学习模型中,数据飞轮本质是为了迭代模型,用新模型解决新问题的范式。

不过以ChatGPT为代表的大模型,涌现出自主学习能力,突破了这种范式。过往的机器学习,是先“吃”数据,之后“模仿”,基于的是对应关系;ChatGPT类的大模型,是“教”数据,之后“理解”,基于的是“内在逻辑”。

这种情况下,大模型本身不发生变化,理论上可以永葆青春。不过也有从业人士表示,正如大模型的智能涌现一样,是非线性发展、不可预测的,是突然就有的。对于大模型是否会随着时间发生衰老,涌现出难以预测的不可确定性也是未知的。

换句话说,ChatGPT在涌现出难以理论化推导的智能性能后,也开始涌现出难以预测的不可确定性。

对于“涌现”的黑盒性,9月6日在百川智能Baichuan2开源大模型发布会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示:“到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了涌现现象。所谓涌现就是给自己一个退路,解释不清楚的情况下就说它是涌现。实际上反映了我们对它一点不清楚。”

在其看来,大模型为什么会产生幻觉这个问题,涉及到ChatGPT跟人类自然语言生成原理的不一样。最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性不能保证。在经历过一系列概念炒作跟风上车之后,对于致力于开发生产力基础模型的人来说,面临的挑战将是如何确保其产品持续输出结果的可靠性和准确性。

不过对于大模型相关的娱乐产品而言,正如Character.AI 联合创始人Noam Shazeer在《纽约时报》上所说:“这些系统并不是为真相而设计的。它们是为合理的对话而设计的。”换句话说,它们是自信的废话艺术家。大模型的巨浪已然开始分流。

参考资料

Gizmodo-Is ChatGPT Getting Worse?TechCrunch-AlappCharacter.aiiscatchinguptoChatGPTintheUSMachine Learning Monitoring- Why You Should Care About Data and Concept DriftM小姐沿习录-关于ChatGPT的五个最重要问题清华大学人工智能国际治理研究院-对大模型的研究很迫切,不能解释不清楚就说“涌现”
举报/反馈

ChatGPT过时了嗎?從大模型數字體驗的角度看出去

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!