文章主题:图/IC, ChatGPT, 生成式预训练转换器, 数据保护
图/IC
ChatGPT(生成式预训练转换器)正遭遇“围剿”。
在4月3日,德国联邦数据保护专员发言人的表明,基于数据保护的考量,暂时禁止在德国运用ChatGPT原则上是可行的。同一天,意大利个人数据保护局发布声明,自即日起,禁止使用聊天机器人ChatGPT,并对开发该平台的OpenAI公司进行了处理意大利用户信息的限制。
意大利的举动被视为人类保卫战的第一枪,但在此背景下,对ChatGPT的“封杀”行为在意大利高层引发了激烈的讨论。
在短短的五天内,用户数量突破了百万大关,而在仅仅两个月的时光里,用户数量更是达到了惊人的亿级别。这一现象级的事件,不仅使得ChatGPT成为了人们口中的热点话题,更让生成式AI技术得到了前所未有的关注与认可。这并非简单的概念炒作,而是真实的技术进步所带来的改变。作为一种基于机器学习算法的生成式AI,它不仅具备了在聊天领域的出色表现,更展示出了在编程和搜索等多元领域的潜力。因此,人们不禁要感叹:真是万物皆可GPT!
在2022年6月,一位谷歌工程师提交了一份21页的调查报告,指出谷歌AI模型LaMDA具有人格特征,如果继续训练可能会引发难以预料的后果。如今,类似的挑战正在困扰着另一个备受瞩目的AI技术——ChatGPT。
许多人对人工智能生成内容(AIGC)可能具备人格并带来潜在灾难深感忧虑。近期,OpenAI的创始人埃隆·马斯克与千名投资者联手呼吁暂停大型AI实验,并将ChatGPT限制在GPT4.0阶段。此外,Even OpenAI的首席执行官也警告称,公开GPT算法存在极大风险,一旦落入邪恶势力之手,其危害后果将不堪设想。
人们究竟在担忧什么呢?首先,我们需要关注的是ChatGPT可能对人类产生威胁,甚至存在如同科幻电影中那般清洗人类的危险情况。这种担忧并非空穴来风,而是源于科幻作品以及哲学领域对于人工智能与人类人格之间的区分。追本溯源,我们可以追溯到19世纪末的《佛兰肯斯坦》这部小说,当时首次提出了将生命导入机器的想法。
第二个层面是ChatGPT可能破坏数据安全。诸如AIGC有爬取数据的功能,这会让数据隐私在互联网时代更加无所遁形。
第三个层面是信息茧房。由ChatGPT引导的信息搜索结果,可能导致新的信息茧房,也就是我们只能获得ChatGPT给予的信息。相比于搜索推荐和内容算法推荐,ChatGPT推送信息更加精准,我们这一代还会手动找一找信息来源,“后浪们”会不会产生依赖?
第四个层面是GPT遭遇滥用危害无穷。万物皆可GPT,GPT会应用到任何领域。如果这项功能被别有用心的人掌握,势必会产生恶劣影响,不亚于恐怖分子掌握了核武器。
实际上,对于取代人类之说,无需忧虑。机器学习下,AI的确是技术黑箱,但说到底还是数学、统计学、计算机学的融合体,是一堆函数和数学模型的最终产物。这种担忧本身来自于科幻,也来自于人类独特的想象力。如果AI是提升人类认知水平和科技水平的一种工具,我们应该用AI来提高认知,应对其他潜在风险,而不是去猜测可能性。
不过,ChatGPT带来的数据安全和信息茧房问题,要给与重视。AIGC说到底是一种工具,而且是一种强大的工具,爬取数据,建立信息茧房和被别有用心的人掌控,造成的破坏不容小觑。直白点说,它会成为收割金钱和利益的工具。
惧怕被收割,就不发展AIGC吗?并非如此,一方面人类从未成功阻止过一项有用技术的发展,技术的进步只会降低工具门槛,最终让技术更加不可控。另一方面,人类应对技术带来的负外部性,一般是靠技术本身。比如,应对核武器的手段就是核武器本身,我们称之为“黑暗森林”。因此,监管AI的方式,在规则层面很难找到突破口,因为AI本身太复杂,只有AI才能监管AI。所以,应鼓励人们早日掌握这些关键技术,应用到关键领域。
对于AIGC的监管有必要,监管目标不应该是AI的人格,而是用AI的人,了解他们想要达到的目的。一定程度上来说,我们不能被封杀AIGC的口号影响,但生成式AI技术的出现不仅带来了巨大机遇,同时也带来了风险。
近年来,随着技术进步,生成式AI在文化创意产业、新闻媒体、金融、医疗等领域得到广泛应用。其一大风险是可能被用于恶意目的,因此,政府、企业和其他相关组织应该加强监管,尽可能地预防生成式AI滥用,要预见风险,提早筑起一道防护墙。
文/盘和林(浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员,工信部信息通信经济专家委员会委员)
编辑 王进雨
校对 柳宝庆
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!