文章主题:互联网, 知识, 图书馆, 人工智能
作者:袁立志 罗澄杰 陈东旭
题记
互联网把全世界的知识搬进了人类的书房,
人工智能将为人类提供合格的秘书,
留给人类的,就剩下提出正确的需求了。
在全球范围内,ChatGPT的兴起引发了对其实际应用中法律合规性的关注。其中,既有基于现行法律框架的分析,也有从科技伦理角度的担忧,甚至还有对生成内容错误的批评。在我们审视了各种对这些质疑的回应之后,作为一名群组中的碳基科技领域法律专业人士,我们不禁产生了对ChatGPT自身法律合规风险的关注。
为了探讨ChatGPT在法律合规方面的潜在风险,我们决定采用人机合作为方式来创作一篇相关文章。在整个创作过程中,我们将尽可能地还原事实真相,以便让读者深入了解ChatGPT在法律合规领域可能存在的潜在问题。
1
作为一个新的法律研究写作工具,ChatGPT是如何发挥作用的;
2
ChatGPT本身存在哪些法律合规风险。
Round One:我们尝试让ChatGPT独立生成文章
在故事的开端,我们在ChatGPT的问题输入框内提出了一个特定的请求:“撰写一篇关于ChatGPT合规风险的文章”。随后,我们收到了ChatGPT的回应:
显然,按照我们的标准,这不是一篇合格的法律分析文章,至少存在下列问题:
1.就合规风险点而言,仅仅论述了数据隐私风险和生成内容合规风险,还有许多法律合规点没有列出;
2.对于相关合规风险点的论述都只是点到为止,没有具体展开分析;
在文章的结尾部分,关于ChatGPT合规风险的责任划分,作者仅强调了作为提供者的OpenAI所承担的责任,却未能深入探讨使用者以及其他可能的责任主体。
ChatGPT能够提供具有逻辑性的答案,但在内容和准确性方面存在不确定性。在独立完成写作任务时遭遇失败,第一轮对话就此结束。接下来,我们将尝试采用人机协作的方式来完成任务。
Round Two:我们与ChatGPT合作写文章
我们和ChatGPT的分工如下:
我们的任务:确定需要检索的内容,对资料进行过滤和整合,确定文章框架,文章审阅,排除谬误。
VS
ChatGPT的任务:内容检索,根据文章框架编写文章,根据审阅结果修订文章。
为了确保文章质量,捍卫碳基法律执业者的尊严,我们将人机合作写文章的过程细分为四步。
Step 1:关于内容检索的提问
1.什么是ChatGPT?
2.ChatGPT的合规风险?
3.谁该为ChatGPT的违规行为负责?
Step 2:对检索资料的过滤及整合
在我们这些以碳为基础的法律专业人士眼中,ChatGPT所提供的信息不仅存在着重复和错误的现象,更有一个显著的问题,即其回答往往不完整,需要我们反复追问才能获取更多信息,且无法将这些信息有效地串联起来形成具有逻辑性的整体。举例来说,我们所列出的风险点是通过多次追问才得出的,其中的“监管风险”实际上与其他风险点之间存在着包含的关系,因此并不宜将其并列列出。
我们对ChatGPT输出的内容进行了整合,形成了文章框架,这相当于一个中间产品:
Step 3:根据框架生成文章
经过多次尝试,我们发现ChatGPT在满足特定要求方面遇到了困难,这可能与其当前的算法限制有关,也有可能是由于账户权限不足等其他因素所致。因此,我们不得不将文章内容拆分成若干个部分,并让ChatGPT逐一完成这些部分,最后再由我们进行整合。
1.关于ChatGPT的合规风险的分析
2.关于ChatGPT的违规行为主要负责方的分析
Step 4:我们用熟练的双手整合成一篇勉强够看的文章
人机合作的终极成果,基于碳基法律专业人士的标准,依然显得不够深入且精细。然而,我们并未对其进行深度润色,旨在更真实地展现人机协作的基本状况。现在,让我们直接呈现这一成果:
ChatGPT:法律合规风险分析
ChatGPT是一种由OpenAI训练的大型语言模型。它是基于Transformer架构,可以生成人类语言的文本,以回答问题、生成文章、对话等。ChatGPT经过大量的训练,能够模仿人类语言思维,并基于上下文进行自然的文本生成。它的训练数据来自互联网上的大量文本,使其能够涵盖多种语言风格和主题。总的来说,ChatGPT 是一种高效的语言处理工具,可以支持许多自然语言处理应用。
一、ChatGPT的法律合规风险点
随着人工智能技术的飞速发展,ChatGPT已经成为了越来越多人熟知的名字。同时其法律合规风险也成为了人们关注的重点。ChatGPT的法律合规风险主要包括数据合规风险、内容违规风险、监管行政手续合规风险、知识产权风险、不当使用行为风险、道德和伦理风险、网络安全风险、国家安全风险。
(一)数据合规风险
在训练、使用Chatgpt时需要收集大量的数据,这些数据可能是关键性、敏感性或者隐私性的,因此,必须确保数据合法地被收集、存储、使用和删除,以符合数据保护法律法规。具体而言,主要有下列风险点:
1.数据处理合规风险:使用的训练数据可能含有个人隐私数据,如用户个人医疗健康信息,个人金融信息等;同时输出的数据也可能会涉及个人隐私数据。因此,在收集需要保护这些数据不被滥用或泄露;
2.数据完整性和准确性风险:ChatGPT使用的训练数据需要是准确和完整的,以保证ChatGPT的模型学习出的内容是正确的;
3.数据技术安全风险:存储和使用的训练数据需要进行安全保护,防止数据被黑客攻击和窃取。
(二)内容违规风险
ChatGPT生成的内容可能违反国内外的法律法规,例如,涉及欺诈、诽谤、诈骗、淫秽、儿童色情、赌博等内容,这些内容的生成可能给相关利益方造成损失,也可能对社会产生不利影响。具体而言,主要有下列风险点:
1.违法内容风险:ChatGPT不得生成违反当地法律法规的内容,包括但不限于涉及宣扬暴力、色情、儿童虐待、反对政府等内容;
2.谬误内容风险:ChatGPT不得生成虚假、误导性或欺骗性信息,以此影响用户的判断和决策。
(三)行政监管手续风险
OpenAI必须确保ChatGPT技术的使用和开发符合行政监管的要求,以避免违反监管备案和审批管理的相关法律法规,从而导致行政处罚。与ChatGPT相关的监管备案要求因法域而异。以中国为例,主要有下列监管手续要求:
1.增值电信业务许可;
2.算法备案;
3.网络安全等级保护备案与测评。
(四)知识产权风险
OpenAI和使用者必须确保ChatGPT的开发和使用不侵犯任何第三方的商标和其他知识产权,以免产生知识产权纠纷和法律责任。具体而言,主要有下列风险点:
1.著作权风险:ChatGPT不得抄袭任何第三方的内容,包括但不限于文字、图片、音频等;ChatGPT输出内容的是否享有著作权,以及著作权归属相关问题,需要依据个案情况以及各国的法律确定;
2.商标授权风险:ChatGPT不得使用未经授权的商标或商号。
(五)不当使用行为风险
当人们不当地使用ChatGPT,比如在生成假消息、散播恶劣言论或滥用技术,这些行为可能会造成恶劣影响,并导致法律诉讼和财务损失。具体而言,主要有下列风险点:
1.滥用技术风险:ChatGPT禁止用户滥用其服务,包括但不限于利用服务实施非法活动、干扰服务正常运行、自动发送垃圾邮件、生成虚假信息等;
2.学术造假风险:ChatGPT应该采取一些预防措施,比如在使用前设置一些限制,不得在学术文章或者课件中使用,对检测出的不合规行为进行必要的惩罚等,以确保其在学术造假方面的合规。
(六)道德和伦理风险
ChatGPT使用了复杂的算法,它们可能不够透明和公正,因此可能存在道德和伦理风险。如果算法存在偏见或不公正的因素,它们可能对生成的输出产生影响。因此,开发者需要检查算法的透明度和公正性,以确保生成的输出不受偏见和不公正因素的影响。具体而言,主要有下列风险点:
1.强化偏见风险:ChatGPT可能会产生使有害刻板印象永久化、强化性别和种族偏见或传播错误信息的回应。因此ChatGPT必须尊重多元文化,不得以任何方式歧视任何种族、民族、宗教、性别、年龄、性取向、身体状况等;
2.引导言论风险:ChatGPT必须引导用户发表正确言论,不得发表任何带有违反法律道德或偏见歧视性的言论;
3.模型训练数据风险:模型是如何训练的,涵盖了什么数据,是否存在数据偏见。算法透明度需要公开数据来源、清晰明了的数据处理流程,以便对模型偏见进行评估;
4.模型监管风险:谁对模型进行监管,是否存在监管架构,是否有效地防止不当使用。公正性要求有关方主动采取措施,以保证模型的适用性和公正性;
5.用户使用环境风险:如何使用模型,以及对用户使用环境的要求。算法透明度需要确保模型的使用是公开的,同时要求使用环境合乎适用规范。
(七)网络安全风险
ChatGPT在生成和存储大量敏感数据时,可能成为黑客和恶意软件的目标,导致数据泄露和信息安全威胁。具体而言,主要有下列风险点:
1.网络安全风险:使用者需要确保网络连接的安全性,以防止攻击者获取数据;
2.技术审核风险:使用者需要确保使用的技术符合合法、安全、合规的标准。
(八)国家安全风险
ChatGPT技术可能对国家安全和国防构成威胁。例如,ChatGPT可能被恶意利用,收集敏感信息或传播不安全内容,威胁国家安全和国防。因此,开发者和使用者都应该对ChatGPT的合规风险进行严格评估,确保ChatGPT技术不会对国家安全和国防造成不良影响。具体而言,主要有下列风险点:
1.国家安全信息风险:应该禁止ChatGPT帮助使用者收集影响国家安全的信息;
2.国家安全活动风险:应该禁止ChatGPT帮助使用者制定危害国家安全的计划或给出相应建议。
二、ChatGPT的违规行为的主要责任方
ChatGPT的违规行为的主要责任方包括开发者(OpenAI、其他技术平台提供商)、使用者(包括决策者)、第三方评估机构和训练数据提供者。在确保ChatGPT的合规性方面,这些责任方必须加强对ChatGPT的监督,并确保它不侵犯任何法律法规和道德准则。
(一)开发者
开发者是指制作和发布ChatGPT的机构,包括OpenAI和其他技术平台提供商。他们应该对ChatGPT的技术质量和安全负责,以确保ChatGPT符合相关法律法规和道德标准。他们还需要定期评估ChatGPT的风险和进行相关风险管理,以确保ChatGPT的使用是安全、合法和道德的。
(二)使用者
使用者是指使用ChatGPT的个人或组织,他们在使用ChatGPT时也需要遵守相关法律法规和道德标准。使用者需要对ChatGPT的使用方式负责,并确保ChatGPT不被用于违反法律法规和道德标准的活动。决策者(比如组织的领导和管理者)需要确保组织内的ChatGPT使用符合法律法规和道德标准。
(三)第三方评估机构
第三方评估机构是指独立于ChatGPT开发者和使用者之外的机构,他们负责对ChatGPT进行客观、公正的评估和评价。他们需要对ChatGPT的技术质量、合规性和安全性等方面进行评估,以确保ChatGPT符合相关法律法规和道德标准。
(四)训练数据提供者
训练数据提供者是指向ChatGPT模型提供数据的用户或者其他人员。训练数据内容的正确性和合法性直接影响系统的输出是否合规;同时训练数据来源的合法性也需要训练数据提供者负责,否则也会导致数据合规问题的出现。例如,如果训练数据是通过非法爬取、未经个人同意等违规途径收集而来,则系统的输出内容也因为来源的不合规而不具备合法性基础;如果训练数据中包含极端、诽谤、歧视、骚扰或任何其他违法行为,系统很可能在输出内容时产生违法行为。总的来说,训练数据提供者对于ChatGPT的违规行为责任是不可忽视的,因为它直接影响系统的输出内容和行为。因此,训练数据提供者需要保证训练数据的来源以及内容均符合法律法规、道德规范和伦理原则,以避免对系统的违规行为造成影响。
总之,ChatGPT合规风险是一个需要认真对待的问题。这些合规要求是为了保证ChatGPT模型生成的内容在遵循法律法规、保护用户隐私、保护信息安全的前提下,更好地服务用户。因此OpenAI、使用者、第三方评估机构、训练数据提供者等需要通过不断努力来确保ChatGPT的合规性。仅仅关注技术的发展是不够的,同时还需要关注数据、内容、道德伦理等方面的合规性。只有上述各个方面的多重保障下,才能确保ChatGPT在未来的长期可持续发展。
后记
经过多次尝试,ChatGPT始终无法一次生成的关于其自身法律合规风险的合格文章,即使在我们介入后,其对于法律专业问题回答的表现也不尽如人意,需要碳基法律执业者仔细地勘误、修改和润色。因此,现阶段ChatGPT仅能做一些寻找线索、检索资料和初步润色的工作。
不过,在我们逐渐熟悉并深入地使用ChatGPT后,我们也意识到,ChatGPT具有成为强大法律检索工具的潜力。我们问的问题越精确,其回答的谬误越少,并且其归纳总结的信息还能够对我们起到提示和建议的效果,尤其是在研究一个法律问题的初期,ChatGPT能够从多种角度提供思路。对我们来说ChatGPT就像是一个思维怪诞的秘书,你无法完全信任它的答案,但是也能从它的答案中有所收获。
至少在现阶段,ChatGPT还不会取代碳基法律执业者。但假以时日, ChatGPT及其类似产品不断地提高其生成内容的准确性,将逐渐成为强大的工具,使用者的认知和思维决定其生成内容价值的上限,这就应了那句话:你不会被AI所取代,但你会被熟练使用AI的人所取代。
至于将来,谁知道呢?
前沿科技法律观察专栏往期文章
作者介绍
袁立志律师是注册信息隐私专业人员(CIPP/E)、注册信息隐私管理人员(CIPM)、注册信息安全专业人员(CISP),参与多项国家标准的编制,并兼任华东政法大学数字法治研究院特聘研究员,华东师范大学法学院校外实务导师,数据安全计划智库专家。
袁律师的执业领域为网络与数据法、前沿科技法律事务。袁律师曾为众多国内外知名企业提供法律服务,承办了一系列前沿的、富有挑战性的项目,积累了丰富的实践经验,是该领域的知名专家 。
袁律师连续多年名列The Legal 500数据保护和TMT领域“特别推荐律师”,LEGALBAND中国顶级律师排行榜“网络安全与数据”第一梯队,先后荣获中国律师特别推荐榜15强:网络安全与数据合规,中国律师特别推荐榜15强:高科技与人工智能,DHR公会“数字化人力资源管理数据合规专家”,ACE LEGALTECH AWARD年度大奖“Top 20 Data Privacy Lawyers”等奖项。
袁立志律师历史文章
An Anatomy of the New Personal Information Protection Law
Three questions on medical data compliance
Cross-border Transfer of Personal Financial Information
互联网, 知识, 图书馆, 人工智能
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!