文章主题:ChatGPT,欧洲,法律逻辑,AI暂停
ChatGPT在欧洲“被禁”的法律逻辑
⊙ 本文长约5500字,阅读需时14分钟
本文来源:科技利维坦
作者: 李汶龙,爱丁堡CDCS研究中心兼职研究员
尚博文,北京大学法学院博士研究生,北大法律信息网签约作者
感谢作者授权推送
ChatGPT在欧洲“被禁”的法律逻辑音频:进度条00:00 08:12 后退15秒倍速 快进15秒
本文只讲法律逻辑,不论国际政治。想了解欧盟监管如何整治美国企业的在这里找不到思路。
这篇小文展开四个问题:(1) 这一语境下的“禁令”是什么意思;(2) 如何看待意大利监管机关Garante的举措,随后是否会出现多米诺效应?(3) ChatGPT在GDPR合规问题上究竟面临着哪些挑战,以及 (4) ChatGPT最终是否会被禁,以及基于什么法律理由/基础?
一
有趣的是,说到中止令 (moratorium),冲到最前面推崇的人竟然是Elon Musk。[2]不过,这与Musk本人长期宣传AI恐惧论的商业逻辑一脉相承,只不过是一种变向的商业广告。关于大模型测试中止令的讨论很快引发了讨论。机器学习界的两大巨擎——Meta首席科学家、法国人Yann LeCun,以及斯坦福大学计算机科学系教授Andrew Ng(吴恩达)——就很快站出来,直指限制技术本身发展是本末倒置。[3][4]
二
意大利数据保护监管机关Garante是第一个站出来主动挑战ChatGPT,背后并没有消费者投诉等事由推动。那么,会不会有其他机关选择效仿,最终形成多米诺效应?
的确,意大利的做法引发欧洲多国的讨论和表态。包括德国BfDI、法国CNIL、西班牙AEPD、挪威Datatilsynet等国的数据保护机关都明确表达了关注、意愿甚至立场。我们基于既有公开信息对既有立场和措施进行了梳理(见表1),得出三点观察:
首先,多个国家都表示不排除进行跟进或采取措施,但相关行动不会像Garante这样匆忙。
其次,是否会选择中止令这种规制形式,不同国家表达了不同立场。德国联邦数据保护专员在表态中明确使用了 temporary blocking的概念[5],但绝大多数国家都没有意愿照猫画虎。法国监管机关CNIL表示将要求Garante提供信息共享,以进一步判断行动的方向和采取的措施。
第三,由于OpenAI未在欧盟设立机构,GDPR中相关的协同和合作机制无法生效。早在ChatGPT之前出现过“中原逐鹿”的局面:Clearview AI需要面对28个国家独立的调查和处罚。根据Politico的梳理,谷歌、TikTok也是分别在法国、荷兰受到处罚并面临后续独立监管行动,才先后在欧盟(爱尔兰)设立机构的。[6] 虽然OpenAI与Clearview AI,以及早期的Google/TikTok非常类似,但我们判断最终不会形成出现割裂执法的局面。一方面,自2022年开始EDPB已就协同和一致性问题进行了充分的反思和讨论,形成了更为明确的协同意愿和落地机制。另一方面,包括西班牙AEPD、比利时APD-GBA,以及爱尔兰DPC在内的多个机构都在表态中明确提到,ChatGPT的监管应当在欧盟层面统一展开,而不是各自为战。为此,EDPB已就相关问题形成了专门的工作组 (taskforce),以促进各成员国监管机关的联合行动。[7]
三
无论最终结局如何,此轮监管是欧盟第一次系统性思考GDPR如何适用于大模型,以及会产生怎样的规制效果。如未来隐私论坛VP Gabriela Zanfir-Fortuna所言,数据保护监管机关开始慢慢发现,它们本质上是AI监管者。[8]
GDPR在大模型上的合规执法是一个复杂议题,目前欧盟既有的调查、投诉、学术讨论中也只是触及棱角,并不全面。我们观察到的数据保护法律议题有如下几种。(见表3)其中,Garante向OpenAI提出的合规清单列举的问题最为丰富[9][10],其他介入的监管机关的焦点相对单一。
合法性基础(同意)是出现频率最高的一个问题。Garante在向OpenAI提出的合规指引中着重强调了算法训练的合法性基础,指出只有同意和正当利益是有效的。OpenAI尤 为依赖的合同条款存在合规问题,需要整改。
数据权利行使是另外一个聚焦的合规问题,不同监管机关处呈现出不同的关注点。意大利Garante在数据权利问题上主要关注用户是否可以行使修正权、删除权,以及拒绝权。与此不同,非营利机构Janus International的主席Zoé Vilain向OpenAI行使访问权未果,遂向CNIL投诉。因此,法国CNIL介入之后更为关注的是访问权和透明度。 [11]
Garante明确提出了 未成年人保护的维度,指出OpenAI缺乏年龄认证机制,要求在5月31日提出方案,9月30日正式启用。年龄认证系统与前述合法性基础问题密切关联。如果个人数据的处理是基于同意,那么根据GDPR必须要求当事人或者未成年人的监护人进行同意。Garante向OpenAI提出的要求是13岁以下的未成年人不得注册,13-18岁区间的未成年人需要监护人同意。
透明度是另一个典型的数据保护合规问题,与数据权利行使,以及未成年人保护关联密切。从措辞上来看,OpenAI在信息提供上明显做得不够充分。
最后, 信息准确性也是一个潜在的合规点。GDPR列有“数据准确原则”,要求控制者或处理者对个人数据保持准确,必要情况下需及时更新,对不准确的个人数据采取合理措施(包括删除或者及时修正。Garante在合规指引中对信息准确性问题一带而过,主要是关乎模型对问题胡乱编纂的情形。但是,ChatGPT的使用不一定涉及个人数据,究竟GDPR哪一机制适用这一问题目前尚不明晰。不过,在法国CNIL接受的另一份投诉中,软件开发者David Libeau提到,当自己向ChatGPT咨询时发现处理了自己的个人信息,在进一步追问时ChatGPT开始胡编乱造。 [12]
四
如果真的要讨论ChatGPT在欧洲是否被禁这个议题,需要细分法域,逐个分析,不该望文生义。就目前各国数据保护监管机关的举措和表态来看,所谓禁止云云名不副实。
但是,欧盟的数字治理在2023年正式进入转折年:DSA、DMA逐步生效,AIA也正在敲定最终文本。虽说GDPR这一一种粗糙的治理工具足以引发格局变化,而更为精准、更富针对性的新数字立法将如何影响大模型的测试、应用以及发展是更为复杂的议题。这些新的法律规则是否会在事实上形成“禁令”值得更为缜密和细致的分析。
除了上述数据保护执法行动之外,全球视野下还存在若干其他的治理方向。例如Github因公开代码爬取所面临的版权集体诉讼[13]、南非竞争委员会率先针对大模型发起的(反垄断)市场调查[14]等,与数据保护议题同等重要,却未得到相同程度的重视。学界也从不同的视角开始审视大模型的法律治理难题。[15][16][17][18][19][20]未来适当时候,我们会系统展开这一全球治理议题。
[1]https://ainowinstitute.org/publication/regulating-biometrics-global-approaches-and-open-questions
在科技迅速发展的当下,人工智能(AI)的应用已经渗透到我们生活的方方面面。然而,随着AI技术的不断进步,一些大型AI实验也应运而生。这些实验在一定程度上推动了AI技术的发展,但同时也引发了关于伦理、安全等方面的担忧。为此,我们有必要暂停一下 giant AI 实验。未来生命 Institute 发起了这封公开信,呼吁人们 pause Giant AI Experiments。这封信旨在引起人们对AI技术发展过程中可能带来的风险的重视。虽然AI技术的发展给我们的生活带来了便利,但在追求科技进步的过程中,我们也应时刻关注AI技术可能带来的负面影响。在这封公开信中,作者强调了暂停巨
在科技迅速发展的当下,有人提出要暂停AI半年,这种做法实际上是对科技发展的一种阻碍,不仅会影响AI技术的进步,还可能造成其他一系列问题。首先,AI技术已经成为了当今社会发展的重要驱动力,它为各行各业带来了巨大的便利和创新。因此,我们不能因为短暂的困难就选择放弃,而应该继续推动AI技术的发展,以便更好地解决现实问题。其次,AI技术的研发是一个长期的过程,不可能一蹴而就。暂停AI半年意味着要浪费已经取得成果,这不仅会延缓AI技术的进步,还可能导致我们在技术上落后于其他国家。此外,AI技术的发展对于社会和经济的影响是深远的,它可以帮助我们提高生产效率、改善医疗条件、促进教育公平等。因此,我们需要更加明智地利用AI技术,而不是选择暂停。总之,认为要暂停AI半年是一种错误的想法。我们应该继续推动AI技术的发展,并充分发挥其在各个领域的潜力,为社会和人类的福祉做出更大的贡献。
在当今科技迅速发展的时代,人工智能(AI)已经成为许多公司和组织的研究重点。然而,最近一些专家和学者提出了暂停 AI 开发的观点,这引起了广泛的讨论。在本文中,我们将探讨为什么暂停 AI 开发是一个错误的想法,并分析其可能带来的影响。首先,AI 技术已经展示了其在各个领域的巨大潜力。例如,在医疗保健领域,AI 可以辅助医生进行疾病诊断,提高治疗效果;在金融领域,AI 可以分析海量的数据,提供精准的预测和决策支持。因此,AI 技术的应用可以大大提高生产效率,推动社会进步。其次,暂停 AI 开发可能会导致错失创新的机会。在 AI 技术不断演进的今天,任何一家公司都不能确保自己不会被竞争对手超越。如果暂停 AI 开发,可能会错失最新的技术进展,从而无法及时调整自己的战略和产品。此外,暂停 AI 开发还可能导致人才流失,因为 AI 技术领域的就业前景广阔,吸引了许多优秀人才。最后,暂停 AI 开发可能会加剧社会不平等。AI 技术的发展可以帮助解决一些社会问题,例如自动驾驶汽车可以减少交通事故,语音识别技术可以提高 accessibility。因此,暂停 AI 开发可能会使这些潜在的好处无法实现,从而加剧社会不平等。综上所述,暂停 AI 开发是一个错误的想法。AI 技术已经展示出其在各个领域的巨大潜力,暂停 AI 开发可能会错失创新的机会,还会加剧社会不平等。因此,我们应该继续推进 AI 开发,同时关注 AI 技术的安全性和伦理问题,以确保 AI 技术的可持续发展。
在隐私问题上,德国可能会考虑封禁ChatGPT。
在当今世界,监管痛苦和保护用户隐私成为欧洲监管者面临的两大挑战。随着人工智能技术的不断发展,尤其是聊天机器人和自然语言处理等应用的广泛普及,如何确保这些技术在维护数据保护和隐私的前提下发挥作用,已成为当务之急。在这个问题上,欧盟已经采取了一系列措施来加强监管,以确保这些技术的安全和合规性。然而,随着全球范围内对数据隐私和保护的关注不断加深,欧洲监管者仍需在应对这一挑战的过程中不断调整和完善其策略。
[7]https://www.reuters.com/technology/european-data-protection-board-discussing-ai-policy-thursday-meeting-2023-04-13/
[8]https://www.politico.eu/article/chatgpt-world-regulatory-pain-eu-privacy-data-protection-gdpr/
在互联网时代,隐私保护变得越来越重要。为了确保用户数据的安全性,很多网站都会采用各种加密技术来保护用户的个人信息。其中,HTTPS协议被广泛应用于网站中,以确保数据传输过程中的安全性。然而,即使采用了这些安全措施,用户仍然面临着隐私泄露的风险。因此,如何提高用户对隐私保护的意识,成为了当前互联网行业亟待解决的问题之一。在这个背景下,Garanteprivacy.it网站应运而生。该网站作为一个专注于隐私保护的信息中心,提供了一系列有关隐私保护的实用工具和建议,帮助用户更好地了解和保护自己的隐私。此外,该网站还提供了一个在线工具,让用户能够检查自己网站是否使用了最新的HTTPS加密技术,从而确保用户的数据安全。为了进一步提高用户对隐私保护的认识,Garanteprivacy.it网站还提供了一系列有趣且实用的文章和视频,涵盖了从基础概念到高级技术的各个层次。这些内容可以帮助用户更深入地了解隐私保护的重要性以及如何在日常生活中加强自己的隐私保护意识。总之,随着互联网的发展,隐私保护已经成为一个日益重要的话题。而Garanteprivacy.it网站的出现,不仅为用户提供了一个了解和保护隐私的资源平台,还通过丰富多样的内容和实用工具,帮助用户更好地应对隐私挑战。
在互联网时代,隐私保护已成为越来越多人关注的焦点。为了更好地满足用户的需求,很多网站都会提供隐私政策,以便让用户了解如何保护他们的个人信息。其中,[10]https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9874751是一个很好的例子。在这个网站上,您可以找到详尽的隐私政策,以及有关数据收集、处理和存储的详细说明。此外,该网站还提供了多种语言供用户选择,以确保信息传达的准确无误。这些举措都体现了网站对于用户隐私的高度重视,也为其他网站树立了良好的榜样。
在人工智能领域中, ChatGPT 的诞生无疑是一项重大的突破。然而,随着这项技术的广泛应用,一些问题也开始浮现。其中,最为引人关注的就是法国数据保护机构 CNIL 对 ChatGPT 的质疑。据报道,ChatGPT 的行为可能违反了法国的数据保护法,因为它在处理用户信息时没有充分尊重用户的隐私权。这一事件再次提醒我们,在发展人工智能技术的同时,我们也必须警惕其潜在的风险。
[12]https://www.lemonde.fr/pixels/article/2023/04/05/chatgpt-premieres-plaintes-aupres-de-la-cnil-contre-le-logiciel-d-intelligence-artificielle_6168425_4408996.html
[13]https://www.theverge.com/2022/11/8/23446821/microsoft-openai-github-copilot-class-action-lawsuit-ai-copyright-violation-training-data
[14] https://www.compcom.co.za/wp-content/uploads/2023/03/Media-and-Digital-Platforms-Market-Inquiry-Draft-Terms-of-Reference-17-March-2023.docx
[15]https://verfassungsblog.de/chatgpt/
[16]https://arxiv.org/abs/2302.02337
[17]https://policyreview.info/essay/chatgpt-and-ai-act
[18]https://www.brookings.edu/blog/techtank/2023/02/21/early-thoughts-on-regulating-generative-ai-like-chatgpt/
[19]https://techcrunch.com/2023/01/27/the-current-legal-cases-against-generative-ai-are-just-the-beginning/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAJW3HAvJK_rDWR9_3kcHblRPaFA3zMXCdjUrVHAWJtdwBAtbZSSy0t71Awsj_WwQb8ESblnWAM3wBqJSRPYEXbqNtdArQq_XiyYMf0JNhLA5C46ewuL0P9anMLenZcbJryML4s87qnujj42CohywSjwcH1DY76dzxCniNEYiS3r7
[20] https://techmonitor.ai/technology/ai-and-automation/this-is-how-gpt-4-will-be-regulated
-END-
编辑排版丨吴晓婧
审核人员丨张文硕
本文声明丨本文章仅为交流之目的,不代表北大法宝的法律意见或对相关法规/案件/事件等的解读。
▼ ▼
北大法宝怎么“让法律更智能”?
对话ChatGPT,人工智能如何能成为论文作者?
ChatGPT的创新与挑战
谢澍:ChatGPT到来,监督管理与技术研发应当如何互动?
法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相
北大法宝宣布联合百度文心一言 打造法律人工智能新生态
OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?
什么都懂的ChatGPT如何看待爱情?
ChatGPT来袭,法律人真的要失业了吗?
专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答
高绍林:ChatGPT法律智能化应用及其规制
会议综述丨“ChatGPT对法律人工智能研发和立法的影响”研讨会成功举行
点击下方公众号名片
获取更多信息返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!