文章主题:文章关键词:Cyber Security, Generative Artificial Intelligence, ChatGPT, Joseph Gregory Maloney

666AI工具大全,助力做AI时代先行者!

f

cyber security

生成式人工智能的崛起:chatgpt与治理相关思考

约瑟夫·格雷戈里·马奥尼 华东师范大学政治与国际关系学院教授

在科幻小说中,我们已经对未来发展迅速的人工智能所带来的无尽潜力有了设想。尽管目前人工智能的技术进步尚未达到,甚至可能永远无法达到实现乌托邦或反乌托邦的境地,然而我们应当意识到,新时代已经到来。

在某个阶段,我国的复兴和崛起,以及美国主导的冷战地缘战略范式的回潮,如针对我国的技术发展打压,都成为了全球关注的重要议题。此外,美元在全球金融体系中的地位逐渐衰落,气候变化和人工智能的发展也成为了不可忽视的因素。这些关键转折点的出现,是资本流动在投资中的重大变化、技术进步,以及气候(例如极端天气事件和相关成本的上升)和地缘政治的重大变化共同作用的结果。特别是人工智能的发展,它揭示了当前环境的竞争态势。在这种竞争激烈的环境下,国际合作在人工智能监管方面的推进显得尤为困难,甚至比在气候变化和核扩散方面的合作还要困难。这表明,世界的稳定性正在逐步减弱。而生成性人工智能的迅速引入和普及,无疑会进一步加剧这种不稳定性。

在评估人工智能,特别是生成性人工智能的快速发展时,我们可以从以下三个方面来进行分析,这三个方面与之前提到的发展状况相似。

人工智能作为当今世界的新兴增长点,对于维系我国在科技创新和竞争前沿地位具有重大意义。它不仅有助于解决诸多问题,而且过度限制无异于束缚我国的进步。技术创新虽伴隨著一定的风险,但正是其带来的回报推动着人类不断向前发展,走出困境,探索未知的宇宙,拯救和充实了无数生命。在这一问题上,无论是马克思主义者还是资本家,都普遍持有相同的观点。从我国在欧洲联盟近期的游说活动来看,这一立场也得到了 ChatGPT 开发者 OpenAI 的采纳。

原内容表达了人工智能可能会带来的一些负面影响,包括消除大量就业机会、加剧国家间的竞争以及潜在的文化偏见等。同时,作者也提到了我们对深度伪造、虚假信息和有害影响活动的认识。基于这些观点,可以得出结论,人工智能的发展可能会对人类的安全和稳定带来威胁,因此有必要对其进行严格监管。改写后的文章:人工智能作为一项新兴技术,其影响力不容忽视。尽管它不太可能引发人机之间的斗争,也不太可能出现恶意超级智能,但已经显露出对就业市场的冲击。据《挑战者报告》数据显示,仅在2023年的5月份,人工智能就消除了美国近4000个工作岗位。高盛预测,人工智能最终可能导致全球3亿个全日制工作岗位被取代,影响到大约五分之一的就业人口。此外,贾拉斯·维克托·格罗夫等理论家所担忧的问题也不容忽视。他们担心,人工智能可能会加剧文化偏见和其他人类缺陷,甚至可能在竞争环境中采取“看似理性”的破坏性决策,包括国家间的竞争。与此同时,我们已经对深度伪造、虚假信息和有害影响活动有了深入的了解。这些因素都表明,人工智能的发展可能会加大人类所面临的生存风险,尤其是在当前面临众多其他挑战的情况下。因此,对于人工智能的监管是必要的,甚至可能需要对其进行严格的限制和禁止。只有这样,我们才能确保人工智能的发展不会对人类的未来造成不可逆转的影响。

经过深思熟虑,我们认识到人工智能作为一种技术手段,既有利于人类社会的发展,也存在潜在的风险。然而,当前的挑战在于如何迅速而有效地与其共存,并构建一套完善的治理体系。在这个问题上,我们需要深入探讨、积极应对,以期在人工智能时代实现和谐共生。

据此,我认为中国在人工智能监管方面有以下三大优势。

1. 与许多西方国家不同,中国在法律和法规方面都是从实际情况出发,而不是从理想化的情况出发。重点是在具体条件下实际改善情况,而不是从理论上构想在理想条件下应该如何更好。

2. 中国在技术监管方面展示出了强大的能力,同时也成为世界领先的技术社会之一。中国在发展自己的国际竞争力强的科技公司的同时,成功避免了成为其他国家的数据园地,并且随着时间的推移,也在符合国家利益时,熟练地监管这些公司的国内业务。在这些方面,没有其他国家能够像中国一样取得如此大的成功。

3. 近年来,中国的政治体制在推进强有力的治理和监管方面表现出诸多优势。因此,中国将需要扮演领导角色,向世界展示正确的前进方向。简而言之,中国需要成为科技创新者,同样重要的是,它需要成为科技监管的创新者。

有人认为,人工智能已经被各国政府广泛用于数字治理和军事事务。此外,这项技术主要是从私营部门发展起来的,已经在我们的日常生活中得到广泛应用。潘多拉的盒子已经打开,而且已经无处不在。这与核能或高级基因研究不同,后者可以相对直接地进行监管。更有趣的是,我们甚至可以询问生成型人工智能如何进行监管。

鉴于此,让我们转向openai的产品chatgpt。几个月前,我在华东师范大学的学生和同事们对这个新的聊天机器人感到非常兴奋,有一位著名教授告诉我,它在写论文方面非常有用,尤其是在进行文献综述和翻译方面。与此同时,我的马克思主义研讨班的学生们赞扬chatgpt在提升或产生创造性内容方面的能力,改进了他们的工作。然而,我关注的问题集中在于chatgpt是否能产生可靠的信息,它是否能够及时提供信息,因为它有两年的滞后,基于线性逻辑的操作系统是否能够辩证地“思考”,商业模式是否有隐瞒的成分,对机器的依赖是否会减弱人类的批判性意识。我还担心版权和抄袭问题,担心我们可能很快就会陷入一种人工智能去阅读和写作的世界,而我们只是假装在这么做。

在测试chatgpt时,我发现它有时会犯错,实际上没有思考的能力,它的创造力还相对有限,但似乎并没有故意说谎或引导错误的倾向。我问chatgpt,如果生成性人工智能不受监管,会对人类构成威胁吗?chatgpt的回答是:“未经监管的生成式人工智能如果被滥用或落入错误的人手中,可能对人类构成风险。如果缺乏适当的规定、准则或监督,就更有可能出现意想不到的后果和潜在的危害。生成式人工智能系统具有生成逼真内容(如文本、图像或视频)的能力。如果这些技术被用于恶意目的,例如制作深度伪造或传播虚假信息,可能对个人、组织和整个社会造成严重影响。此外,未经监管的生成式人工智能可能引发与隐私、安全以及人工智能系统操纵或欺骗人们的能力相关的担忧。建立保障措施、标准和法律框架以解决这些问题非常重要,以确保生成式人工智能的负责认式发展和负责使用,从而保护社会福祉。监管和监督在缓解与人工智能技术相关的风险、鼓励道德实践以及促进对生成式人工智能系统开发和部署的信任方面起着至关重要的作用。”

再次,我发现chatgpt的诚实令人耳目一新,这个诚实也是令人意外的,特别是考虑到openai一直在游说要求近乎零监管的情况下。于是我又问“生成式人工智能改如何监管呢?”

chatgpt给出的答案如下:

对生成型人工智能进行监管需要考虑到技术、伦理和社会等多个方面。以下是一些监管生成型人工智能的关键考虑因素:

1. 透明度和问责制:监管机构可以鼓励或要求人工智能开发者对生成型人工智能系统的能力、限制和潜在偏见进行透明度披露。开发者应对系统生成的输出负有责任,并透明地解释如何应对潜在风险。

2. 伦理准则:制定伦理准则可以确保负责任使用生成型人工智能。这些准则可能包括公平性、隐私、安全和避免伤害等原则。鼓励遵守伦理标准可以促进与社会价值观相符的人工智能系统的开发和应用。

3. 数据治理:监管机构可以对数据收集、使用和存储实施监管规定。明确的指南涉及获得同意、保护个人信息和解决数据偏见等问题,对于维护信任和保护隐私至关重要。

4. 风险评估和测试:监管机构可以要求对生成型人工智能系统进行严格的风险评估和测试程序。其中包括评估潜在偏见、验证生成的输出的准确性和可靠性,并评估系统对恶意使用的脆弱性。

5. 用户保护和教育:政策应着重保护用户免受生成型人工智能可能造成的伤害。教育用户了解这些系统的能力和风险,可以帮助他们做出明智决策,并谨慎相信生成的内容。

6. 国际合作:考虑到人工智能的全球化发展和应用,国际合作至关重要。各国之间的合作可以促进最佳实践的共享、监管规定的协调,并解决与生成型人工智能相关的跨境挑战。

最后,对生成式人工智能进行监管需要采取一种平衡的方法,既促进创新,又确保以符合社会价值观、保障安全、降低潜在风险的方式开发和使用技术。

幸运的是或不幸的是,由于chatgpt的知识库截止日期是2021年末,因此我们无法询问当前生成式人工智能的监管情况。在过去的两年里,这方面的发展已经非常迅速。不过,我们可以考虑以下几种方法来监管人工智能,包括生成式人工智能:

1. 使用现有的监管框架:生成型人工智能的某些方面,如数据隐私、知识产权和消费者保护,可能受到现有监管法规的约束,例如数据保护法律、版权法和广告准则。

2. 使用行业特定的法规:某些行业,如医疗保健和金融,有针对人工智能系统(包括生成型人工智能)使用的特定法规,以确保安全性和符合行业标准。

3.加强伦理指南和框架:政府和组织已经制定了关于人工智能的伦理指南和框架,这些可以间接影响生成型人工智能的开发和部署。例如,欧洲委员会的《值得信赖的人工智能伦理指南》以及类似于“合作伙伴计划”和美国电气和电子工程师协会所提出的原则。

4. 鼓励行业自律:一些行业已经采取了主动行动,建立了自愿准则或行为准则,以负责任地开发和使用人工智能,包括生成型人工智能。这些自律努力旨在确保伦理实践,并建立公众信任。虽然openai似乎抵制监管,但谷歌宣布了一项机器“去学习”比赛,旨在从ai系统中删除敏感数据,使其符合全球数据监管标准。

当考虑新的监管措施时,决策者还应考虑以下内容:

1. 透明度要求:法规可以要求开发者和组织将有关生成型人工智能系统使用透明化。这可能涉及披露使用人工智能的情况,解释系统的能力和限制,并提供有关数据来源和训练方法的信息。

2. 验证和认证:政府或独立机构可以设立验证和认证机制,评估生成型人工智能系统的安全性、可靠性和伦理考虑。这可能涉及对系统的性能、潜在偏见以及遵守既定标准的评估。

3. 数据治理和隐私保护:法规可以解决数据收集、存储和使用问题,以保护个人隐私并防止滥用。这可能包括关于获得知情同意、数据匿名化和安全存储实践的指南。

4. 知识产权:法规可以解决与生成型人工智能生成内容相关的知识产权问题。这可能涉及对所有权权利、归属要求以及使用生成型人工智能创建受版权或专有材料的潜在限制的澄清。

5. 禁止恶意使用:法规可以明确禁止将生成型人工智能用于恶意目的,例如制作深度伪造、传播虚假信息或进行网络攻击。这将涉及建立法律框架以遏制和惩罚此类活动。

6. 用户保护和意识提高:法规可以着重保护用户免受生成型人工智能可能带来的潜在伤害。这可能包括对人工智能生成内容的披露要求,关于使用生成型人工智能的警示或免责声明,以及开展教育活动提高人们对潜在风险和影响的认识。

7. 国际合作:考虑到生成型人工智能的全球性质,国际合作和监管协调非常重要。国家之间的合作可以帮助应对跨国挑战,分享最佳实践,并制定负责任的生成型人工智能开发和使用的共同标准。

非常重要的一点是,特定的监管方法将取决于不同司法管辖区的法律、社会和文化背景。制定监管规定应当涉及政府、研究人员、行业相关方和公众之间的合作,以确保制定全面和平衡的框架。此外,尽管看起来可能有些奇怪,但也许还可以从生成型人工智能本身获得关键洞见。事实上,这可能是我们首先可以直接询问应如何对其进行监管的新技术,包括要求它起草和审查可能的监管框架。

我对国际合作在未来能否充分发挥作用不太有信心,但我相信中国要找到一条负责任的前进道路,并以符合国家振兴目标的方式实现。现在是行动的时刻,中国可能需要在人工智能治理方面走在世界其他国家的前面,向其他人指引前进的道路,特别是其在全球南方的欠发达伙伴国家和地区,他们有再次被殖民的风险。我希望这次会议及类似的会议能够为实现这样的结果作出贡献。

责任编辑:

人工智能崛起:ChatGPT与治理新思考

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!