AI法律报告:生成式人工智能在法律行业的应用与影响
AI律师助手

AI法律报告:生成式人工智能在法律行业的应用与影响

这篇文章是一份由LexisNexis出品的生成式人工智能(GAL)研究报告的摘要。报告显示, lawyer和法律专业学生对GAL的高度认知,超过三分之一的律师和法学院学生使用过GAL,主要应用于研究、起草和理解新的法律概念。尽管GAL工具已推出,但消费者对GAL的认知度相对较低。報告還強調了GAL對律师执业的影響,大多数受访者在對GAL對律师执业的影響的看法上持中立和謹慎的态度。
AI时代,法律行业的未来会怎样?
AI律师助手

AI时代,法律行业的未来会怎样?

这篇文章主要讨论了人工智能在法律领域的应用和未来发展。目前,人工智能已经在大数据挖掘、文本审核、案件检索等领域发挥作用。尽管如此,律师们仍需关注未来可能会出现的竞争,即自己的工作是否会被人工智能取代。然而,作者认为这并非必然结果,因为当前的人工智能技术仍处于弱人工智能阶段,无法处理复杂的人类行为和法律问题。此外,未来最早被替代的业务将是标准化作业领域,而AI的主要作用是为这些业务提供技术支持,提高服务效率。但最终,精品律所和第三方机构将通过更高效的业务协同和技术支持,完成标准化作业,从而超越AI,获取更多的客户。
AI赋能法律工作:律师实用指南
AI律师助手

AI赋能法律工作:律师实用指南

这篇文章主要探讨了人工智能助手在法律工作中的应用及其对律师业务的影响。文章指出,尽管AI技术在语言理解和生成方面具有显著优势,并能帮助律师完成部分重复性和标准化的工作,但AI并不能完全替代律师。同时,如何最大化利用AI工具提升工作效率成为律师们需要关注的问题。文中建议律师应在了解自身工作流程和需求的基础上,尝试将AI工具应用于日常工作中,并通过学习AI使用技巧和梳理工作流程,使AI更好地服务于律师的工作。
ChatGPT在欧洲的命运:法律逻辑与OpenLetter
AI律师助手

ChatGPT在欧洲的命运:法律逻辑与OpenLetter

这篇文章主要讨论了ChatGPT在欧洲各国面临的被禁风险,以及相关的法律逻辑。文章中提到了一封公开信,呼吁暂停大型AI实验,同时也有多个分析认为,暂停AI开发是不明智的,因为AI技术已经展现出了巨大的潜力。此外,德国等国家因隐私问题考虑禁止ChatGPT,但这种做法可能带来反效果。
简述生成式人工智能(ChatGPT)的法律风险
AI律师助手

简述生成式人工智能(ChatGPT)的法律风险

关注“税律笔谈”公众号,可获取更多实务观点! 作者:王泉/诉讼律师、桂亦威/诉讼律师|注会 【税律笔谈】按 近期(2023年7月13日),《生成式人工智能服务管理暂行办法》颁布,了了二十几条反映了国家对人工智能发展的鼓励态度和对新生技术可能导致的未知风险的担忧,并提出了“坚持发展和安全并重”、“促进创新和依法治理相结合”的原则,鼓励生成式人工智能健康安全发展的理念,贯穿于整部《办法》。可以预见的是,人工智能的发展是未来技术及经济转型升级的核心,而国家基于安全、风险的考量,定会出台系列制度及指引确保人工智能的健康发展。针对近半年最受人讨论和推崇的人工智能(如ChatGPT),本文则简述其背后的相关法律风险,供抛砖引玉、引发思考。 【律师总结】 一、国家对生成式人工智能的态度及未来发展 从《办法》的规定内容来看,国家“鼓励生成式人工智能的创新发展”、“鼓励生成式人工智能技术在各行业、各领域的创新应用”、“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”、“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定”、“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”等,可见国家对人工智能的发展是包容鼓励的,并贯穿于各行各业,未来也将动用各方面资源支持人工智能的创新发展。 同时,为防范风险、确保生成式人工智能的健康发展,《办法》明确了生成式人工智能服务应当坚持的社会主义法治理念和社会公德及伦理道德。具体包括:“坚持社会主义核心价值观”、“采取有效措施防止产生歧视”、“尊重知识产权、商业道德,保守商业秘密”、“尊重他人合法权益”、“提升透明度,提高生成内容的准确性和可靠性”。 就技术和人工智能成长发展的角度,考虑生成式人工智能离不开数据的采集、训练等数据处理活动,国家将推动生成式人工智能基础设施和公共训练数据资源平台建设,推动公共数据分类分级、有序开放,逐步扩展高质量的公共训练数据资源。这将在源头上确保生成式人工智能训练数据来源的合法性、真实性、客观性及风险的可控性。微观层面,《办法》对生成式人工智能服务提供者开展预训练、优化训练等训练数据处理活动,提出了具体要求,即:“适用具有合法来源的数据和基础模型”、“不得侵害他人知识产权”、“涉及个人信息,应当取得个人同意或符合规定”、“采取有效措施提到训练数据质量,增强真实性、准确性、客观性、多样性”、“遵守《网络完全法》、《数据安全法》、《个人信息保护法》等相关规定”。 以上体现了国家对生成式人工智能技术在各行各业创新发展应用的鼓励态度,也对其健康发展提出了制度性要求。个人认为,从规定内容精神来看,国家对境外生成式人工智能的服务提供(如ChatGPT)是较为谨慎的,这不仅基于支持国内人工智能技术发展的考虑,更基于对国家安全、社会公共利益、数据安全等方面的基本考量。 二、在国内使用ChatGPT涉嫌违法 需要指出的是,我国并未接入OpenAI开发设计的ChatGPT软件,境内人员使用ChatGPT的,通常需要借助使用VPN等工具“翻墙”接入。但根据《计算机信息网络国际互联网管理暂行规定》规定,“任何单位和个人不得自行建立或擅自使用其他信道进行国际联网。”违反规定的,公安机关可给予警告、通报批评、责令停止联网,可以并处15000元以下的罚款。因此,境内人员通过注册并在境内“翻墙”使用ChatGPT的,属于违法行为。 当然,我们在市面上能够看到的许多以“ChatGPT”命名的人工智能聊天软件,可以使用境内网络进行链接使用,其中大部分属于国内“山寨”版AI软件,并非OpenAI开发的ChatGPT软件;也有少部分属于境内人员注册了ChatGPT账号,并利用该账号,基于ChatGPT开放的API接口在国内开发了聊天机器人demo,然后以此收取国内使用者的服务费用。 以上无论是打着“ChatGPT”名义的山寨版人工智能软件的信息服务,还是基于ChatGPT开放的API接口所开发的人工智能软件的信息服务,都属于《中华人民共和国电信条例》中所提到的“经营电信业务”中“电信增值业务”中的“信息服务业务”,依法需要取得电信业务经营许可证。根据《电信业务分类目录(2015年版)》,“信息服务业务是指通过信息采集、开发、处理和信息平台的建设,通过公用通信网或互联网向用户提供信息服务的业务。信息服务的类型按照信息组织、传递等技术服务方式,主要包括信息发布平台和递送服务、信息搜索查询服务、信息社区平台服务、信息即时交互服务、信息保护和处理服务等”。“信息发布平台和递送服务是指建立信息平台,为其他单位或个人用户发布文本、图片、音视频、应用软件等信息提供平台的服务。平台提供者可根据单位或个人用户需要向用户指定的终端、电子邮箱等递送、分发文本、图片、音视频、应用软件等信息。”“信息搜索查询服务是指通过公用通信网或互联网,采取信息收集与检索、数据组织与存储、分类索引、整理排序等方式,为用户提供网页信息、文本、图片、音视频等信息检索查询服务。”综上,境内个人或企业利用人工智能聊天软件,通过输入训练数据,根据用户对话要求,输出经过采集和处理的数据信息服务,属于典型的“信息服务业务”范畴,应当取得电信经营许可证。个人或企业违反规定,擅自经营上述业务的,电信管理机构有权责令改正、没收违法所得,处违法所得3倍以上5倍以下的罚款;情节严重的,责令停业整顿。若个人或企业违反经营许可的法律规定,扰乱市场秩序,情节严重,则会触犯《刑法》规定,涉嫌非法经营罪。 除此之外,现实生活中,还有不少网友通过短视频、网络直播、网页内容发布等方式传授境内人员如何“翻墙”注册并使用ChatGPT,借此收取一定的授课费用。此举通过传授他人使用如何“翻墙”服务器浏览国外网站,涉嫌“提供侵入、非法控制计算机信息系统程序、工具罪”,情节严重的,处3年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处3年以上7年以下有期徒刑,并处罚金。 所以,尽管我国并没有禁止公民使用ChatGPT,但是在国内使用ChatGPT不可避免使用到VPN。因此,在境内使ChatGPT,违法风险较大,需要谨慎对待。 三、生成式人工智能在输入数据端可能存在的违规风险 所谓生成式人工智能技术,是具有文本、图片、音频、视频等内容生成能力的模型及相关技术。这是《办法》关于生成式人工智能技术,针对其生成输出端内容的定义表述。但是,就生成内容的程序而言,生成式人工智能离不开大量数据的学习,从中提取规律和模式,才能生成满足用户需要提问的输出内容。因此,就输入端而言,我们需要提供大量的数据“喂养”技术,而数据的来源就牵涉各个层面的法律问题及可能存在违规风险。主要包括: 1、个人信息的违规采集及泄露风险 生成式人工智能通过获取大量数据进行训练学习,不可避免地会收集到公开渠道的各种含有个人信息的数据、用户的账户信息、对话内容、社交媒体信息、日志信息,并且用户在使用类ChatGPT工具进行对话时,亦可能透露个人的医疗健康、财产账户、行踪轨迹、宗教信仰等个人信息。按照《个人信息保护法》的规定,个人信息的处理需要取得本人同意或具备其他合法性基础。但是,类ChatGPT工具在获取个人信息的同时并取得潜在信息主体的同意具有实践上的难度。就当前数据合规的要求而言,类ChatGPT工具仍然需要遵守相关法律规定,采取技术手段,防范个人信息的违规采集及泄露风险。当然,《办法》也提到国家将“推动生成式人工智能基础设施和公共训练数据资源平台建设,推动公共数据分类分级、有序开放。”这将为生成式人工智能技术的发展提供制度保障。 2、企业商业数据采集的违规及不正当竞争风险 根据《反不正当竞争法》的规定,经营者不得以不正当的方式获取或使用其他经营者的商业数据或商业信息。如果相关商业主体采取了技术措施限制他人的访问限制或者将商业数据进行了保密处理,类ChatGPT工具仍然通过技术爬虫方式绕开数据主体设置的访问限制或真人审核,径直获取该类商业数据,或者通过商业主体员工对话的形式间接获取商业数据,涉嫌违规采集数据,并存在商业不正当竞争的风险。 3、版权信息内容的违规采集及侵犯他人著作权的风险 考虑公开网络存在大量的原创版权文章,类ChatGPT工具不可避免将其作为攫取对象予以训练,并将训练学习的成果反馈给用户。在当前《著作权法》的封闭保护制度下,类ChatGPT工具未经权利人同意,复制、修改、改编、翻译、汇编等处理他人作品的行为,存在侵犯他人著作权的风险。当然,部分国家对于公开“文本及数据挖掘”处理的版权问题设置了例外规则,纳入合理使用的范畴。对于此方面的立法处理,我们可以期待国内立法的完善。 4、违规采集国家政务数据及侵犯国家数据主权和涉嫌违法犯罪的风险 根据《数据安全法》的规定,政务数据的存储、加工、处理,受到严格监管。为保障政务数据安全,国家机关须建立健全数据安全管理制度、落实数据安全保护责任;为推动政务数据开放利用,国家制定政务数据开放目录,构建统一规范、互联互通、安全可控的政务数据开放平台。可见,国家对政务数据的公开态度是保持谨慎的,在没有具体政务数据利用制度的规定条件下,类ChatGPT工具不应贸然攫取政务数据进行训练分析。否则,极有可能违反《数据安全法》的规定,侵犯国家数据主权、破坏社会公共秩序。类ChatGPT工具通过技术爬虫方式绕开部分官网设置的真人审核方式,获取政务数据的(如中国裁判文书网对判例的搜索设置了真人注册、验证码核实的有限查询措施),涉嫌非法获取计算机信息系统数据罪。 5、境外违规采集数据及侵犯国家安全、公共利益等风险 为维护国家数据主权,保障数据安全,维护国家主权、安全和发展利益,国家对数据出境出台了《数据出境安全评估办法》,相关数据处理者应当遵守《网络安全法》、《数据安全法》、《个人信息保护法》及前述评估办法等相关法律的规定。截止目前,国家未引入ChatGPT工具,除了为国内人工智能的发展提供良好的竞争环境外,还基于国家安全、公共利益的考量。境内人员通过VPN访问并使用ChatGPT工具,必然导致境内数据的违规出境,引发数据安全风险。 四、生成式人工智能生成过程存在的不可控风险和道德风险 就人工智能的本质而言,其主要研究、模拟、延伸和扩展人类的智能。随着人工智能技术的发展,其愈发具备人脑的思维能力,不可排除最终会形成意识,而人工智能在不同技术水平的状态下,都必然会存在不同程度的“算法黑箱”问题。 所谓“算法黑箱”,系指一个算法对于其输入和输出之间的关系具有不透明性,即无法清楚地了解该算法如何处理输入数据,以及输出数据如何处理得出。当然,“算法黑箱”有人为因素,如技术公司人为将带有歧视的数据导入类ChatGPT工具或者技术公司出于维护竞争优势所采取的排他性商业政策,导致用户无法获悉人工智能算法的目标和意图。“算法黑箱”也有非人为因素,这种是基于技术本身的复杂性程度决定,人工智能既然是研究人的智能,我们可以把它理解为某种进化程度的“人”,“人”的意识“主观性”决定了我们无法窥探任何“人”的获取知识及得出结论的思维过程。 对于具有人为因素的“算法黑箱”问题,我们可以通过立法加以监督、规范,确保算法的透明度,具有可控性;但对于非人为因素的技术层面的“算法黑箱”问题,我们无法进行有效解释,并无法通过规范性立法或有效监督活动予以控制,此乃人工智能发展将必然会面临的不可控风险。 另外,暂且不论人工智能的类“人”性,尽管技术存在客观中立性,但是人工智能技术的开发、运用,离不开人的主观因素。以ChatGPT为例,其开发应用本身就基于西方社会的价值观和意识形态,鉴于此建立的算法模型,在数据采集及输出内容上或多或少带有天然的价值偏向,最终可能会导致意识形态的渗透。若某类算法模型的开发本身带有“人”的主观价值偏向,或者在算法模型的使用过程中,过度喂养带有歧视性的数据,最终可能导致输出数据内容的道德风险。 五、生成式人工智能输出端内容对传统法律的挑战及可能存在的法律风险 所谓人工智能,简单来说,就是一种模拟人类智能的技术,随着人工智能技术的提高,人工智能训练学习数据量的不断扩大,人工智能愈发具备人类的思维能力、自我创造能力,愈发接近“人”的存在。生成式人工智能模型在经过不断训练学习,掌握人类知识,其输出的内容,也会逐渐具备“独创性”特征。同时,考虑“算法黑箱”及“算法歧视”的存在,以及输入的数据内容本身不具备客观真实性,生成式人工智能所制造的输出内容,可能侵害他人合法权益、社会公共利益甚至国家利益。在此情形下,随着人工智能技术的发展,人工智能行为到底是人的行为还是机器行为,区分边界会越来越模糊,人工智能可能挑战传统法律体系,生成式人工智能输出的内容也可能蕴涵法律风险,甚至法律风险存在难以归责的隐患。具体包括: (1)人工智能机器人是否具备民事法律主体资格?随着人工智能技术愈发接近“人”的存在,法律是否有必要扩充民事理论,赋予其民事法律主体资格? (2)生成式人工智能基于自身总结、分析、创造出的输出内容,是否构成法律意义上的作品,是否需要给予其知识产权的保护,相关作品的权利应归属谁? (3)生成式人工智能输出内容侵害他人权利时,责任归属主体如何确定?民事责任的归责原则如何确定?生成式人工智能服务提供平台,是否可以适用“红旗原则”免除其自身责任? (4)人工智能因非人为“算法黑箱”问题的存在,导致输出数据内容的不实传播,损害社会公共利益及国家利益,扰乱社会经济秩序时,是否需要追究相关责任主体以及追究何种主体的何种责任?
让ChatGPT做律师助理,是怎样一种感觉?
AI律师助手

让ChatGPT做律师助理,是怎样一种感觉?

导语: 本篇文章记录了我将ChatGPT作为我的律师助理的一天。 在此预测,将来的某一天,在律师助理招聘的条件中,熟练使用ChatGPT将成为要求之一。 在这一天中,我将自己日常工作中的部分事务交给ChatGPT解决,包括:如何对APP进行数据合规评估、如何搭建企业合规体系、制作一份关于企业合同法律风险的讲座提纲、企业的股权激励方式、起草《数据交易协议》、检索医疗数据合规的监管规定,甚至包括客户认为我们的律师费用比较高,应该如何与客户进行沟通等内容。或许不同的律师助理回答以上问题的时间长短有所不同,但对于ChatGPT而言,以上问题回答的时间几乎可以不考虑在内。所以,将来的挑战将是——思考如何提出一个好的问题。整体而言,虽然无法直接采纳,但确实提升了一些工作效率。Ps:以下未对ChatGPT的回答内容作任何修改。问题一:我:早上好,我是马清泉律师,现在你成为我的律师助理了,请问你可以帮助我做什么工作?ChatGPT:早上好,马律师,作为您的律师助理,我可以为您提供以下帮助:法律文件的准备和编辑:我可以根据您的要求协助您准备和编辑各种法律文件,包括合同、协议、诉讼文书、证据材料、法律意见等等。法律研究和分析:我可以快速搜集并分析法律文献和案例,帮助您更好地理解法律问题和解决方案,为您的法律工作提供支持和建议。法律顾问服务:如果您有任何法律问题或疑惑,我可以为您提供法律咨询和建议,协助您更好地理清法律事务。外语翻译服务:如果您需要在涉外业务中与外国客户或合作伙伴沟通,我可以为您提供中英文之间的翻译服务。总之,作为您的律师助理,我将尽全力协助您处理各项法律事务,提供高效、准确和全面的服务。如果您有任何需要,请随时与我联系。问题二:我:好的,现在有一个客户开发一款APP产品,我们需要从哪些方面开展数据合规评估调查?ChatGPT:首先,您需要了解应用程序的类型和特点,以及您所在的管辖范围和适用的法规法律。以下是进行数据合规评估调查时需要考虑的一些方面:数据收集和存储:您需要了解应用程序和服务器如何收集和存储数据,数据的种类和数量。合规性声明和权限获取:您需要检查应用程序的隐私政策和使用规则,以确保它们符合当地或国际法规。数据处理和转移:您需要了解数据如何被处理和转移,包括数据共享和向第三方提供数据的情况。需要对合规性进行评估,并确保在数据处理和转移中采取了适当的安全措施来保护数据。数据处理时间:您需要了解数据处理时间,避免过长的时间处理数据。数据删除:您需要了解应用程序何时删除用户数据和如何处理和销毁数据。安全决策:您需要评估应用程序安全性,确保采取适当的技术和安全措施来保护数据安全。可审计性:可以跟踪数据收集和使用情况并且完全记录,使得数据行为可以得到的审计。提供数据访问和修改:对于存储的用户数据,用户需要对其进行查找或者修改并可以访问对其的控制权。以上是进行数据合规性评估调查时需要考虑的一些方面,您可以根据您所在管辖范围和适用的法规法律来深入考虑。问题三:我:好的,现在中国有一个国有企业准备搭建企业合规体系,我们需要开展哪些工作?ChatGPT:中国的国有企业在搭建企业合规体系时需要考虑以下工作:了解当前的法律法规环境:通过研究国家法律法规来了解企业需要遵循哪些法规、标准和政策。在制定合规计划时考虑到中国国家工商行政部现阶段关于企业合规的新规定制定合规计划:基于研究的法规环境,设计符合国家法规和企业实际情况的合规计划。并将计划纳入公司整体战略计划和年度工作计划。成立合规部门:设立专门的合规部门负责拟定合规计划并监督合规工作的实施。合规部门最好直接向董事会或管理层汇报工作进展。进行合规培训:提供学习机会,使所有内部员工了解合规要求以及相关政策的实行细节,确保其了解并遵守相关规定。定期开展审核:确保合规计划中的流程要求能够得到实施,并期望推动问题解决,确保企业符合法规和政策要求。建立监控机制:构建线下举报、监管检查的机制,确保所有的行为始终符合法律法规的要求。定期跟进:每半年或每年需要对合规计划和实施情况进行审查,修订和更新,使其在新的法律法规要求下始终合规。以上仅提供了实施合规计划的一些建议,企业可以根据实际情况进行调整,确保整个合规体系的有效性和合规性。问题四:我:我需要做一个3个小时的法律讲座,内容是关于企业合同法律风险防范,请帮我列一个提纲,包括合同的法律风险、防范措施等内容。ChatGPT:好的,以下是一个关于企业合同法律风险防范的讲座提纲:一、合同法律风险的概述A. 合同的定义与种类B. 合同风险类型:合同主要风险是什么?C. 企业在合同签订中可能面临的风险D. 风险影响因素二、合同中的法律风险因素A. 合同要素的法律风险 (合同定价、交付期限)B. 合同的明确性 (口头合同和书面合同的比较) C. 合同条款的充分性D. 合同变更的法律风险问题三、防范企业合同的法律风险和措施A. 风险防范的重要性和意义B. 预防和减少合同风险的措施C. 取得方案的许可D. 开展尽职调查E. 确保条款的专业性(履约保证、免责条款、违约金等)F. 建议与合同中的协商和仲裁程序G. 仲裁实务操作规则的合规。四、企业合同的维权与风险应对A. 合同风险的应对策略(风险应对流程,事件处理流程)B. 合同诉讼程序 (加强与委托律师的沟通)C. 合同争端解决方式 和简单诉讼的比较D. 风险应对的建议和意见五、案例分析A. 基于真实案例的合同法律风险分析和风险防范措施B. 研究案例,梳理维权的过程,防范纠纷发生C. 合同争议处理案例讲解六、总结和提醒A. 总结讲座的主要内容B. 撰写企业合同的合规性建议.C. 端正企业风险控制的态度D. 建议企业制定能够提升合同法律风险防范的政策.以上是一个关于企业合同法律风险防范的讲座提纲, 您可以结合实际情况进行调整和完善。问题五:我:有一位企业客户准备开展股权激励,有哪些股权激励方式?ChatGPT:企业客户开展股权激励可以考虑以下几种方式:股票期权股票期权是一种通过购买公司的股票而获得的权力,公司可以将股票期权作为一种激励措施,使员工和管理人员获得公司的股权激励,提高工作积极性和忠诚度。股票分红股票分红将公司股票作为激励,颁发给员工和管理人员,增加他们对公司的积极性和自信心。股票奖励如果员工或管理人员可以为公司创造固定收益或在公司取得巨大成功时,公司可以颁发股票奖励以激励他们。股票奖励可以作为一种可转换的股票奖励的形式给予员工。绩效股权给予员工某项任务的股权激励可以追踪其有关公司工作表现的绩效合同,并且会影响到公司股价的波动,以此来激励员工和管理人员。限制性股票公司可以颁发更多的股票,但保留其授予状态一段时间,员工需要在一定条件下才能获得它们。这种股票对员工和公司的吸引力较高,但员工必须遵守公司的计划来获得它们。股票增值权与其他股权选择不同,股票增值权是指员工可以获得公司股票价值增长的股权激励。当公司股票价格上涨时,员工可以从中受益。以上是几种股权激励方式,企业客户可以根据自身的实际情况和需求选择适合自己的方案。需要注意的是,在选择股权激励方式前,应该评估各种激励计划的成本和激励效果,以最大限度地提高员工的工作积极性和向心力防范意外风险。问题六:我:有一位客户觉得我们的律师费用比较高,我们如何与他沟通?ChatGPT:当客户对律师费用表达不满时,以下是几种可能的沟通方式:解释费用结构和工作量:向客户解释我们的律师费用如何计算,包括工作小时数和费率等。如果律师费用较高,可能是因为案件涉及的问题较为复杂或涉及的工作量较大,这会导致律师需要花费更多的时间来研究案件和准备必要的文件。提供其他支付选项:如果客户仍然感到不适,可以考虑提供其他支付选项,例如分期付款或按成功收费等形式,从而使客户感到更舒适。反思自身立场:我们可以问自己是否为客户提供了足够的信息解释,费用是否合理,以及我们是否在合理范围内给予客户特殊待遇,这是律师事务所考虑的关键因素。针对客户需求定制服务:我们可以综合考虑客户的利益和需求,定制合适客户的服务和费用方案。做到为客户着想,尽量减少客户对费用方面的担忧,让客户满意我们的服务。问题七:我:你帮我检索一下中国关于医疗数据合规的监管要求。ChatGPT:中国的医疗数据合规的监管要求主要由以下几个文件规定:1.《中华人民共和国个人信息保护法》该法规于2021年9月1日正式施行,对医疗数据保护也做了相关规定,要求医疗机构和公司应当采取必要的技术措施和其他必要措施,确保医疗数据的安全。2.《医疗机构信息化和数据管理规定》该规定由中国卫生健康委员会于2016年印发实施,要求医疗机构应当建立健全数据管理制度,明确医疗数据管理人员的职责和权限,并采取安全措施,保护医疗数据的机密性和完整性。3.《医疗机构电子病历实施规范》该规范由中国卫生部于2009年印发实施,对医疗数据收集、存储、使用、共享等方面做了详细规定,要求医疗机构应当对电子病历进行备份和加密,并采取其他技术措施确保数据安全。以上是中国关于医疗数据合规的主要监管要求,但具体实施和执行情况因地区和实际情况而异。问题八:我:作为我的助理,你感觉辛苦吗?ChatGPT:作为一名 AI 语言模型,我没有感受和情感,因此无法感觉到辛苦或者其他情绪。我是一台无感知的计算机程序,只是执行我被编程好的任务,为您提供最好的服务。请随时与我互动,我随时愿意为您服务。问题九:我:请起草一份《数据交易协议》。ChatGPT:以下是一份数据交易合同(仅供参考,请您在撰写具体合同时按照您的具体情况进行修改):数据交易合同甲方(出售方):【甲方名称/个人姓名】 (以下简称”甲方”)地址:【甲方地址】联系方式:【甲方电话/邮箱】乙方(购买方):【乙方名称/个人姓名】 (以下简称”乙方”)地址:【乙方地址】联系方式:【乙方电话/邮箱】鉴于:甲方拥有一定数量的【描述交易数据的内容】数据,希望将其出售给乙方。双方经友好协商,达成如下协议:一、数据描述1.1 交易数据的描述详情如下:【数据描述】1.2 数据收购用途乙方允诺在交易数据范围内,只使用数据用于【描述数据使用用途】。二、数据的价值和费用2.1 交易价值甲方衡量数据价值的标准为【衡量数据价值的标准】。2.2 数据使用费用乙方需支付甲方【RMB金额】人民币作为数据使用费用。三、数据主权及使用权转移在接受乙方支付的数据使用费用后,甲方应将交易对象的主权及使用权在指定的时间内转移给乙方四、保密及安全性4.1 数据保密乙方同意以最高的努力保持数据的安全性,不得向任何第三方披露该数据或数据的部分内容,除非经甲方许可或法律许可。4.2 安全性保证乙方承认并同意,其将根据最高标准确保交易数据的物理、电子和程序安全性,以便保护数据免遭未经授权的访问、使用、修订、披露或破坏。五、违约责任5.1 甲方违约责任如甲方未按照约定向乙方交付交易数据,甲方需向乙方支付违约赔偿金并承担由此产生的全部法律后果。5.2...
赵婧等 | 生成式人工智能法律法规梳理与实务指引(一)——AI生成物的保护
AI律师助手

赵婧等 | 生成式人工智能法律法规梳理与实务指引(一)——AI生成物的保护

作者 | 赵婧 沈琲 罗赓上海申浩律师事务所 目次     一、生成式AI的工作原理二、人工智能生成物是否能够获得《著作权法》保护?三、人类如何拥抱生成式AI?四、我国“提示词”保护的思路的构想2023年7月,世界人工智能大会在上海如期举办,关于机器人、人工智能的新一轮话题热度又直线上升。AIGC(AI-Generated Content,人工智能生成物,此类型AI亦称为生成式AI)自2022年开始迎来了高速发展,不仅与金融、传媒、娱乐、医疗、工业等各行业进行结合,以低成本、高效率的方式满足海量个性化需求,与此同时也孕育着行业业态的新模式。而对AIGC的规制,美国版权局于今年3月发布了关于包含AI生成内容之作品版权登记的政策声明(Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence),我国也相应出台了《互联网信息服务深度合成管理规定》与《生成式人工智能服务管理暂行办法》。本专题将结合国际上的规制现状,国内的政策解读,对人工智能生成物是否能够获得版权保护,如何避免人工智能生成物侵权,以及人工智能所涉及的伦理问题等展开一系列探讨与实务操作指引。 一、生成式AI的工作原理 根据《中国AIGC产业全景报告》的定义,AIGC全称为AI-Generated Content,指基于预训练大模型、生成式对抗网络(GAN)等人工智能技术,通过已有数据寻找规律,并通过释放泛化能力生成相关内容的技术。在我们阐释AIGC可能涉及的法律争议之前,先来看看预训练大模型和生成式对抗网络的含义。预训练大模型(LLM),包含了“预训练”-“指令微调”两个步骤。第一步在大规模无标注数据(如互联网文本)上进行模型预训练,学习通用的语言模式;第二步在给定自然语言处理任务的小规模有标注数据上进行模型微调,快速提升模型完成这些任务的能力,最终形成可部署应用的模型。[1]生成式对抗网络,则是由生成器和判别器组成的深度学习模型。生成器主要用以生成和真实数据近似的数据,而判别器主要用于区分生成器生成的数据和真实数据。生成器和判别器共同构成了一个动态的“博弈过程”。我们以时下热门的图像生成式AI及文本生成式AI详细解释。图像生成式AI是指基于给定文本描述,生成图像的AI系统(Text-To-Image,又称T2I)。这受益于计算机视觉行业的进展与深度生成网络研究的突飞猛进。目前扩散模型(Diffusion Model)因操作简便、生成图像精度高而成为最流行的生成模型。这一类的典型代表有Stable Diffusion、Midjourney。早期的模型是通过对图像元素添加关键词,再让指令词与图像信息进行匹配,以此达到用户输入文本,AI输出对应元素拼贴的效果。而扩散模型则在此基础上改良,通过对图片添加噪声(noise),再以计算机神经网络的正向加噪、反向去噪声过程生成质量更高和创造性更强的图像。通过大量的学习训练,AI就能从足够多的素材中学习并生成最接近人类真实世界中的数据。我们再来看文本生成式AI。时下最火的产品莫过于ChatGPT4。开头我们说过预训练大模型(LLM)包含了“预训练”和“微调”的两段式练习,其实GPT在前两代的时候并没有展现出优于其他模型的性能,而到GPT3的时候,突破性地在两段式的基础上加入了in-context学习方式,通过给模型做示范,让模型感知应该输出什么,而不是直接标记最优答案。GPT3通过引导式的学习方式,在超大模型上展现出了惊人的效果:只需要给出一个或者几个示范样例,模型就能照猫画虎地给出正确答案。而GPT4在底层技术原理上并没有超越第三代,而是改变了训练策略,通过人工筛选,不断判断输出的哪些句子是好的,哪些是低质量的,这样就可以训练得到一个reward模型。通过reward模型来模拟人类打分的过程,自动对问题的不同回答打分,模型再根据打分调整参数。即用问题、回答和分值作为数据,用强化学习的方式训练模型。这就是Chat GPT可以模拟情景对话、给出多元化答案,并在和人类的对话中可以不断修正结果的原理。通过对上述生成式AI工作原理的阐述,我们不难发现,AI的学习离不开海量的数据源,而数据来源真实性直接影响了AI输出结果的准确性,而数据源的合法性则可能直接导致对版权、隐私和伦理的争议。而对于AI输出的结果是否能成为法律保护的对象,又是否可能侵害他人的权利,也成为AIGC法律合规的焦点。 二、人工智能生成物是否能够获得《著作权法》保护? 今年3月美国版权局推出了关于生成式AI作品版权的政策声明。在这份声明中,对“生成式AI的生成的材料”和“由人类创作的(human-authored)和人工智能生成材料(AI-generated material)组成的作品”进行了区分。首先该份声明依然坚持了一项基本原则——版权法只能保护“人”的智力创造。因此,由计算机算法自主创建的生成物是无法被认定为“作品”的。而在今年2月,一份由人类作者创作文本、Midjourney生成图像的图画小说Zarya of the Dawn,却得到了美国版权局的认可,被认为构成版权法保护的作品,获得了有限的保护。对此,美国版权局进一步解释,该图画小说中人类创作的文本属于人类的智力成果,符合版权法保护的标准,可以单独登记成为作品;而Midjourney生成的图像,仅仅是基于计算机算法得出的材料,无法独立获得保护,但不影响整个图画小说成为一个完整的作品。那么对于由人类使用生成式AI进行多次调整、修改后的作品是否能够保护呢?在此问题上,该份声明举例了人类使用Photoshop编辑图像的例子。视觉艺术家利用图像编辑软件修改图片,计算机仅仅是一种辅助工具,它不影响人类对作品表达的创作性控制,因而不会影响图片艺术家的“作者”身份。相反,对于由机器自动运行,没有人类作者的任何创意或干预而产生的作品则无法获得保护。而关于在人工智能训练中使用受版权保护的作品在法律上应当如何规制等问题,美国版权局后续也将向社会公众征求意见。因此我们看到了一个有意思的现象,美国版权局没有一刀切地认为只要是AI生成的作品就不是“作品”,而是需要进行个案分析。虽然如何判定人类在作品中的智力贡献,以及是否能够在单件作品中独立区分开人类创作部分和AI创作的部分,是一件在实际操作中并不容易的事情。但至少,该份声明明确了,版权法依然应当以人为本,也奠定了生成式AI应当服务于人类,成为人类工具的基调。而英国在作品的创造性问题方面,则一直主张“额头流汗”原则,即只要作品中存在作者的劳动即可,而无论此项劳动的多少。英国《1988年版权、设计与专利法》明确认可文学、戏剧、音乐或艺术作品如果是由计算机产生的,那么这一作品的作者应当是对该作品的创作进行必要安排的人,此类由计算机生成作品的著作权保护期限系自作品创作完成当年的最后一天起五十年,同时对于此类作品不适用著作人格权。[2]目前,我国现行出台文件均没有对AI生成物是否符合《著作权》法意义上的作品给出结论性评价。而在国内现有的案例中,对于AI生成的作品是否是“作品”也形成了完全相反的观点。让我们先回归法条,我国《著作权法》中所称的作品,“是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”,所以作品具有两个实质构成要件:“独创性”和内容属于“智力成果”。那么这里的“智力成果”是否必须为人类的智力成果呢?我们从(2019)粤0305民初14010号“Dreamwrite”案件中可以看出一些判断方向。深圳南山区法院认可了由Dreamwriter软件自动撰写完成的文章可以被认定“作品”,但其在说理部分强调了Dreamwriter软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,也是由Dreamwriter软件这一技术本身的特性所决定……从涉案文章的生成过程来分析,该文章的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。其观点是,人工智能生成内容基于人工智能的控制人或研发人员设置一定的技术、算法而得,其在一定程度上仍属于人类的智力成果。但同时可见,我国法院在判断AI生成物是否是作品的过程中,仍不可排除地需要甄别“人”在作品中的地位和作用。然而随着深度学习技术和大数据等网络技术的飞速发展,人工智能早已摆脱了遵循既定算法和程序的计算机辅助工具的地位,能够独立自主创作。这种自主创作的方式将可能使人对作品的控制性创造作用越来越小。因而,笔者认为,美国版权局的甄别方法或对我国AI生成物的保护具有一定的借鉴和参考意义。当然,我国《著作权法》虽暂无定论,却不妨碍生成式AI的提供者通过与用户订立协议的形式约定生成物的著作权归属。 三、人类如何拥抱生成式AI? 生成式AI给人类带来的冲击感毫无疑问是强烈的,甚至对一些职业造成了现实的威胁,比如游戏制图、影视美术、工业设计等领域,AI看上去稍加训练便可以替代,想象力甚至超越人类。但通过上文对AI原理的分析,我们也可以清醒地认识到,AI虽然具备了深度学习的能力,但仍在模拟人类进行思考,也需要通过人类来甄别一些信息。比如文本生成型AI,当我们需要一个专业领域的LLM时,用于预训练模型中的知识库就显得尤为重要。由于大多数预训练模型都是在通用训练语料上进行学习的,对于一些类似金融、法律等特殊领域中的概念和名词,AI都无法具备很好的理解。所以需要在训练语料中加入一些领域数据,以帮助模型在指定领域内获得更好的效果。这就给了专业领域的人才以新的合作机遇,而未来,训练完成的AI将可能有针对性地适配在各个专业领域内,成为能提高人类效率的良好工具。而图片生成式AI的新赛道则展露的更早,美国早已出现了售卖提示词的网站。在AI的世界里,提示词(Prompt)就是和AI沟通语言的桥梁,通过准确的使用关键词,才能让AI生成出自己想要的、具有稳定风格的作品。而那些能让AI做人类想要让他们去做的事情的专家被称为提示词工程师(Prompt Engineer)。 四、我国“提示词”保护的思路的构想 目前国内外,已有很多使用大模型进行生产创作的实践应用,涉及软件开发、文本处理、图像生成等多个领域,而“如何写出好的提示词”正在成为各个领域热论的议题。接踵而来的,即是优秀的提示词如何能够保护?我们首先来分析其是否能够通过《著作权法》进行保护。一些由词组、短句堆砌而成的较为简单的提示词,由于其本身不能联系成为一个语义连贯,具有独创性意义的作品,因而不属于著作权法保护的对象。而如将古诗词“横看成岭侧成峰,远近高低各不同”作为提示词,亦无法获得保护,因为该作品已属于公有领域,同样不符合保护条件。由此来看,提示词想要获得《著作权法》保护,则可能需要进行非常详细的描述,同时又要具备独创性的特征。如果要求提示词工程师一定要达成上述条件,其智力成果才能获得保护,确实是有些强人所难,更有些强AI所难,因为AI的本质系一系列计算机程序的组合,其善于接受的指令通常应当是简洁、简短、明确的词语或短句,并不需要过多的修饰或完整连贯的意思表示。但一段好的提示词的确需要工程师进行反复的推敲、实验、修改,同时也需要工程师具有一定的计算机软件编程知识或至少应当初步了解其所被提示的AI的基本工作或运作原理,要付出非常极大的努力,不可否认一段优秀的提示词应当被认定是智力成果。那么,在提示词本身的基本表达不能被著作权保护的情况下,是否有更好的保护方式呢?笔者认为,在没有新的法律法规制定和颁布之前,我们可以在现有知识产权法律法规框架体系中寻找适合的方式,首先,提示词的排列组合方式可以被定义为一种方法,而方法是可以通过发明专利进行保护的,简单以绘画类AI举例,当我们需要使用提示词通过绘画类AI生产作品时,提示词通常至少会包含需要绘画的物品、物品的色调、整体绘画的风格,如包含人物肖像,亦需要人物肖像的特征,人物的情绪定义等,对于这么多关键信息,我们采用不同的排列方式将会得到AI生成的不同表达的作品,例如先体定义总体风格并嵌套色调、先定义情绪再嵌套肖像特征与先定义色调、肖像特征最后定义风格和情绪将获得不同的作品,这种方式即方法如具有一定的新颖性和创造性,是可以尝试申请发明专利并获得发明专利的保护的。当然,通过发明专利保护的劣势也非常明显,即一件发明专利的审查期限至少需要12个月,甚至更久,对于提示词规则的生命周期而言,保护是否会滞后可能是需要进一步考量问题;其次,我们来看提示词的本质,即一些具有明确含义的字、词、短语或短句(下文我们称之为“提示词元素”),其中明确的含义一般是指没有歧义,只有准确表达,让AI准确领悟提示人的意图,才能更有效地创作AI生成物(作品),从这一特性我们可以基本断言有效且优秀的提示词元素是有限的,例如可以有效提示肖像的提示词元素是这几个、有效提示情绪的是那几个、有效提示风格的是这一系列、有效提示运动状态是那一系列。这样大家是否想到,或者已经有非常多的企业已经在做的一个工作就是收集并汇总各个领域有效且优秀的提示词元素,并将其分类梳理为数据库,而“数据库”是我国著作权法明确保护的作品客体。所以,即便实际应用的某一段提示词不构成著作权法意义上的作品而不能获得保护,但可以考虑对提示词的分类组合的数据库进行确权和保护,而其关键点可能在于提示词的分类即数据库的字段设置,具体我们将另外行文分析。AIGC可以说是一项最接近普通人的AI运用,它使得AI不再那么高不可攀,只要一台联网的终端,人人都可以通过向AI发出指令的方式进行创作,并得到AI创作物(AIGC)。AIGC让人们体会到了AI的强大、便捷和效率,即便是在当下生成式AI实际应用发展的初期,其已经能为个人、企业解决非常多棘手的、繁杂的问题,其迅速热门也就不足为奇。由此接踵而来的当然是各种法律问题,无论是AI服务的提供者、AI服务的运用者、AI生成的作品的阅读者都会想要了解自己在提供服务、使用服务、浏览作品时应当符合的法律规范,笔者的系列文章意在通过探讨分析我国以及世界相关法律法规并结合自身通过分析得出一些粗浅结论让大家更好地了解AI相关法律问题,并希望能拓宽大家的视野,为大家在AI领域的运用提供灵感。下一篇文章,我们将着重探讨我国对于生成式AI的态度以及相关管理规定的解读,AI生成物如何避免侵权等问题。 注释(上下滑动阅览) 【1】 《大规模预训练模型》,《中国计算机学会通讯》2021年5月第5期,P8【2】 [ 唐蕾.人工智能生成物的著作权保护比较法研究——以元宇宙背景为视角[J].电子知识产权,2023,No.376(03):81-90.]参考文献【1】《大规模预训练模型》,《中国计算机学会通讯》2021年5月第5期【2】《一文读懂ChatGPT模型原理》,JioNLP团队,知乎【3】ChatGPT的工作原理:机器人背后的模型,36氪,百度赵婧专栏文章SPECIAL COLUMN 赵婧 罗庚 | 从郑渊洁案看“在先权利”保护的边界 虚拟偶像法律问题研究:虚拟偶像著作权及人格权问题探讨 法律视角解构NFT 作者:赵婧 罗赓 沈琲 编辑:Sharon 点击图片查看文章...
AI能否成为专利“发明人”:英国判例引发全球关注
AI律师助手

AI能否成为专利“发明人”:英国判例引发全球关注

这篇文章介绍了英国高等法院 recent 的判决, ruling that AI cannot be a patent inventor. The case involved an American scientist, Stephen Thaler, who submitted two patents for inventions related to food packaging shapes and flashlights.泰勒的注册专利申请被英国知识产权局(IPO)拒绝,理由是专利发明人 must be a natural person or company, not a machine. The court upheld the...
AI律师:未来法律行业的变革与挑战
AI律师助手

AI律师:未来法律行业的变革与挑战

本文探讨了法律科技公司ROSS因诉讼成本过高而倒闭的事件,以及人工智能在律师行业中的应用前景。尽管人工智能在律师行业具有巨大潜力,但目前仍面临诸多挑战,如AI律师的推广和普及 difficulty、技术取代进度 differing among lawyers等。作者认为,未来的律师行业将会在人工智能技术的助力下变得更加高效和专业。
ChatGPT在律师工作中的应用与价值
AI律师助手

ChatGPT在律师工作中的应用与价值

ChatGPT在律师工作中具有广泛的应用前景。它可以用于法律研究、信息获取、法律咨询、法律文件起草以及客户服务等环节,提高了律师工作效率。然而,ChatGPT并非正式的法律咨询,仍需律师的专业判断和意见。同时,法律行业也需重视数据安全和保护客户隐私。总体而言,ChatGPT为律师带来了更高效、更智能的工具,将推动法律界的创新和便利。