原标题:高度关注ChatGPT伦理问题和法律规范
近日,国家网信办公布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《生成式AI意见稿》),拟就类似ChatGPT等基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术进行相应规范。根据《生成式AI意见稿》的规范要求,我国支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。同时,《生成式AI意见稿》提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并应符合五项要求,包括利用生成式人工智能生成的内容应当体现社会主义核心价值观,防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视,防止生成虚假信息,防止伤害他人身心健康,防止损害肖像权、名誉权和个人隐私,防止侵犯知识产权,禁止非法获取、披露、利用个人信息和隐私、商业秘密等。
笔者认为,生成式AI在其发展进程中面临的最大问题不是技术本身,而是生成式AI的技术伦理和法律问题。笔者建议《生成式AI意见稿》中应当增加生成式AI相关伦理规范的规定。生成式AI的伦理是AI技术创新和科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,它不只是涉及生成式AI科学研究中的伦理,也不只是生成式AI科研人员要遵守的科技伦理,还包括生成式AI成果应用中的伦理。
生成式人工智能应用安全风险引起全球关注
人工智能在经历前期技术积累和迭代后,逐渐突破传统分析型AI领域,迎来生成式AI的爆发期。从2012年至今,生成式AI极速发展,其源头就是DNN算法的升级,实现了语音和图像识别等功能。生成式AI(Generative AI 或AIGC)是基于算法、模型、规则,利用现有文本、图像、代码、音视频文件生成和创建新内容的技术。生成式AI即人工智能生产内容,可用于代码生成、文本问答、图像生成等。火爆全球的ChatGPT就是一种生成式AI的特定实现,能理解并生成文字,属于生成式AI技术应用中的文本生成模态应用模型。
当前,ChatGPT的应用所引发的安全风险,已经引起全球对生成式AI伦理和安全问题的高度关注。3月30日,非营利组织人工智能与数字政策中心(CAIDP)向美国联邦贸易委员会(FTC)投诉称:GPT-4“有偏见性、欺骗性,对隐私和公共安全构成风险”。CAIDP认为,OpenAI违反了FTC对人工智能(AI)产品的指导,并违反了FTC法案第5条,该法案禁止不公平和欺骗性的商业行为。3月29日,一份由1000多名科技专家签署的题为《暂停大型人工智能研究》的公开信引起了全球的广泛关注,这些科技专家包括图灵奖得主约书亚·本吉奥(Yoshua Bengio)、特斯拉CEO埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、DeepMind高级研究科学家扎卡里·肯顿(Zachary Kenton)等AI领域的企业家、学者、高管。
笔者注意到,这些AI专家在信中强烈呼吁:所有AI研究室立刻暂停训练比GPT-4更加强大的AI系统,为期至少6个月,并建议各大企业、机构共同开发一份适用于AI研发的安全协议,同时信中还提到各国政府应当在必要的时候介入其中。公开信中指出,目前AI技术在很多领域已经取得了很大的进展,但是这些进展也带来了一些潜在的危险。一些研究人员担心,超强的AI可能在未来对人类产生威胁,因此需要对这项技术进行更加深入的研究和探讨。此外,公开信中还提到了AI技术可能给社会带来的影响。多数人担心AI技术可能取代很多人类工作,从而导致失业率的上升。此外,一些人还担心AI技术会对社会的隐私和安全造成威胁。这份公开信呼吁暂停大型的AI项目,以便对这项技术进行深入研究和探讨。此外,这份公开信还呼吁政府、学术界和产业界等各方加强对AI技术的监管和控制,以确保这项技术能够更好地服务于人类,而不是对人类产生威胁。
ChatGPT的应用对社会结构构成三大威胁
事实上,ChatGPT的应用正在对社会结构构成真实而迫在眉睫的三大威胁:一是数据安全的威胁。ChatGPT以海量信息“为食”,数据量越大、数据越新,其功能性越好。这意味着要保证良好的用户体验,它必须在社会各领域中获取足够多和准确的知识与信息,但问题在于,许多信息涉及国家机密、商业机密和个人隐私,获取和利用这些信息本身存在合法性问题,一旦重要数据泄露,造成的损失到底是由泄露数据的人承担,还是由披露数据的ChatGPT承担,尚无定论。二是对人才教育的威胁。ChatGPT被学生用于完成作业和撰写论文,对教育界和学术界造成了重大的冲击。调查显示,美国有89%的学生用ChatGPT写作业,目前尚未研究出可准确检测这种作弊行为的技术。利用ChatGPT完成学习任务的高质量和高效率远超此前的系列解题软件,它可以完美避开查重等问题,这使其极具诱惑力。人类教育的意义本来就是为了培养社会人才、推进人类历史的进步,而ChatGPT作为当前智能机器人的一个前沿成果,却替代人类完成人才培养的任务,这是极其可怕的。三是意识形态渗透的威胁。ChatGPT的数据输出功能承载着后台技术操控者的话语权,用户越多、使用范围越广就意味着其话语权越大、价值渗透力越强。ChatGPT是有政治立场和价值取向的,操控者的价值观存在历史和文化的偏见、歧视,就会通过ChatGPT的“放大镜”昭然于世,误导用户,扭曲大众价值观,引起社会动荡,妨害社会公平正义。在国际竞争日益激烈的背景下,各种社会思潮此起彼伏。ChatGPT 一旦面向大众,势必会成为意识形态渗透的重要工具。
目前,世界多国教育系统及相关从业者已公开抵制ChatGPT。美国多所大学已宣布计划减少居家评估,增加手写论文和口试。纽约、巴尔的摩和洛杉矶的学区都叫停了学校管理的网络访问聊天机器人。在澳大利亚,一些大学表示他们将恢复只使用监考的笔试考试来评估学生。法国顶尖学府之一的巴黎政治学院也宣布禁止使用ChatGPT。3月31日,意大利个人数据保护局(DPA)发表声明,禁止在意大利使用人工智能聊天平台ChatGPT。意大利DPA指责ChatGPT系统违反了欧盟《通用数据保护条例》(GDPR),并已对OpenAI这家美国科技公司展开进一步调查,在欧洲第一个以国家名义禁用ChatGPT。
科技创新和成果不能损伤人、损害生物和破坏环境
应当指出,科技伦理是理性的产物,其底层逻辑要求科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境,即便不可避免会不同程度地损人毁物——如药物的副作用,也要把这种副作用减到最低,甚至为零。在具体的伦理规则上,还应两利相权取其重、两害相权取其轻。
早在2016年,标准制定组织IEEE就发布了一份题为《利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》的报告,该报告提出了一个发展人工智能的一般性原则,主要涉及AI可靠性以及高层次的伦理问题,该报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般性原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。
笔者建议,各国在研发生成式AI时,应当建立健全公开透明的AI监管体系,重点在生成式AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对AI算法设计、产品开发和成果应用等的全过程监管。促进生成式AI行业和企业自律,切实加强生成式AI协同一体化的管理,加大对生成式AI领域数据滥用、算法陷阱、侵犯个人隐私、违背伦理道德等行为的惩戒力度。
在生成式AI技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注生成式AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障生成式AI健康发展的法律法规和伦理道德框架。法律研究领域要开展与生成式AI应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立生成式AI的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
我国《生成式AI意见稿》为全球探索生成式AI治理提供了有益借鉴。建议各国积极构建生成式AI相关法律、伦理和社会问题的国际合作和交流平台,建立保障生成式AI健康发展的法律法规和伦理道德框架,确保生成式AI在伦理规范和法律框架下健康发展,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的生成式AI伦理国际治理框架和标准规范。(作者:王春晖)