赵婧等 | 生成式人工智能法律法规梳理与实务指引(一)——AI生成物的保护
AI律师助手

赵婧等 | 生成式人工智能法律法规梳理与实务指引(一)——AI生成物的保护

作者 | 赵婧 沈琲 罗赓上海申浩律师事务所 目次     一、生成式AI的工作原理二、人工智能生成物是否能够获得《著作权法》保护?三、人类如何拥抱生成式AI?四、我国“提示词”保护的思路的构想2023年7月,世界人工智能大会在上海如期举办,关于机器人、人工智能的新一轮话题热度又直线上升。AIGC(AI-Generated Content,人工智能生成物,此类型AI亦称为生成式AI)自2022年开始迎来了高速发展,不仅与金融、传媒、娱乐、医疗、工业等各行业进行结合,以低成本、高效率的方式满足海量个性化需求,与此同时也孕育着行业业态的新模式。而对AIGC的规制,美国版权局于今年3月发布了关于包含AI生成内容之作品版权登记的政策声明(Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence),我国也相应出台了《互联网信息服务深度合成管理规定》与《生成式人工智能服务管理暂行办法》。本专题将结合国际上的规制现状,国内的政策解读,对人工智能生成物是否能够获得版权保护,如何避免人工智能生成物侵权,以及人工智能所涉及的伦理问题等展开一系列探讨与实务操作指引。 一、生成式AI的工作原理 根据《中国AIGC产业全景报告》的定义,AIGC全称为AI-Generated Content,指基于预训练大模型、生成式对抗网络(GAN)等人工智能技术,通过已有数据寻找规律,并通过释放泛化能力生成相关内容的技术。在我们阐释AIGC可能涉及的法律争议之前,先来看看预训练大模型和生成式对抗网络的含义。预训练大模型(LLM),包含了“预训练”-“指令微调”两个步骤。第一步在大规模无标注数据(如互联网文本)上进行模型预训练,学习通用的语言模式;第二步在给定自然语言处理任务的小规模有标注数据上进行模型微调,快速提升模型完成这些任务的能力,最终形成可部署应用的模型。[1]生成式对抗网络,则是由生成器和判别器组成的深度学习模型。生成器主要用以生成和真实数据近似的数据,而判别器主要用于区分生成器生成的数据和真实数据。生成器和判别器共同构成了一个动态的“博弈过程”。我们以时下热门的图像生成式AI及文本生成式AI详细解释。图像生成式AI是指基于给定文本描述,生成图像的AI系统(Text-To-Image,又称T2I)。这受益于计算机视觉行业的进展与深度生成网络研究的突飞猛进。目前扩散模型(Diffusion Model)因操作简便、生成图像精度高而成为最流行的生成模型。这一类的典型代表有Stable Diffusion、Midjourney。早期的模型是通过对图像元素添加关键词,再让指令词与图像信息进行匹配,以此达到用户输入文本,AI输出对应元素拼贴的效果。而扩散模型则在此基础上改良,通过对图片添加噪声(noise),再以计算机神经网络的正向加噪、反向去噪声过程生成质量更高和创造性更强的图像。通过大量的学习训练,AI就能从足够多的素材中学习并生成最接近人类真实世界中的数据。我们再来看文本生成式AI。时下最火的产品莫过于ChatGPT4。开头我们说过预训练大模型(LLM)包含了“预训练”和“微调”的两段式练习,其实GPT在前两代的时候并没有展现出优于其他模型的性能,而到GPT3的时候,突破性地在两段式的基础上加入了in-context学习方式,通过给模型做示范,让模型感知应该输出什么,而不是直接标记最优答案。GPT3通过引导式的学习方式,在超大模型上展现出了惊人的效果:只需要给出一个或者几个示范样例,模型就能照猫画虎地给出正确答案。而GPT4在底层技术原理上并没有超越第三代,而是改变了训练策略,通过人工筛选,不断判断输出的哪些句子是好的,哪些是低质量的,这样就可以训练得到一个reward模型。通过reward模型来模拟人类打分的过程,自动对问题的不同回答打分,模型再根据打分调整参数。即用问题、回答和分值作为数据,用强化学习的方式训练模型。这就是Chat GPT可以模拟情景对话、给出多元化答案,并在和人类的对话中可以不断修正结果的原理。通过对上述生成式AI工作原理的阐述,我们不难发现,AI的学习离不开海量的数据源,而数据来源真实性直接影响了AI输出结果的准确性,而数据源的合法性则可能直接导致对版权、隐私和伦理的争议。而对于AI输出的结果是否能成为法律保护的对象,又是否可能侵害他人的权利,也成为AIGC法律合规的焦点。 二、人工智能生成物是否能够获得《著作权法》保护? 今年3月美国版权局推出了关于生成式AI作品版权的政策声明。在这份声明中,对“生成式AI的生成的材料”和“由人类创作的(human-authored)和人工智能生成材料(AI-generated material)组成的作品”进行了区分。首先该份声明依然坚持了一项基本原则——版权法只能保护“人”的智力创造。因此,由计算机算法自主创建的生成物是无法被认定为“作品”的。而在今年2月,一份由人类作者创作文本、Midjourney生成图像的图画小说Zarya of the Dawn,却得到了美国版权局的认可,被认为构成版权法保护的作品,获得了有限的保护。对此,美国版权局进一步解释,该图画小说中人类创作的文本属于人类的智力成果,符合版权法保护的标准,可以单独登记成为作品;而Midjourney生成的图像,仅仅是基于计算机算法得出的材料,无法独立获得保护,但不影响整个图画小说成为一个完整的作品。那么对于由人类使用生成式AI进行多次调整、修改后的作品是否能够保护呢?在此问题上,该份声明举例了人类使用Photoshop编辑图像的例子。视觉艺术家利用图像编辑软件修改图片,计算机仅仅是一种辅助工具,它不影响人类对作品表达的创作性控制,因而不会影响图片艺术家的“作者”身份。相反,对于由机器自动运行,没有人类作者的任何创意或干预而产生的作品则无法获得保护。而关于在人工智能训练中使用受版权保护的作品在法律上应当如何规制等问题,美国版权局后续也将向社会公众征求意见。因此我们看到了一个有意思的现象,美国版权局没有一刀切地认为只要是AI生成的作品就不是“作品”,而是需要进行个案分析。虽然如何判定人类在作品中的智力贡献,以及是否能够在单件作品中独立区分开人类创作部分和AI创作的部分,是一件在实际操作中并不容易的事情。但至少,该份声明明确了,版权法依然应当以人为本,也奠定了生成式AI应当服务于人类,成为人类工具的基调。而英国在作品的创造性问题方面,则一直主张“额头流汗”原则,即只要作品中存在作者的劳动即可,而无论此项劳动的多少。英国《1988年版权、设计与专利法》明确认可文学、戏剧、音乐或艺术作品如果是由计算机产生的,那么这一作品的作者应当是对该作品的创作进行必要安排的人,此类由计算机生成作品的著作权保护期限系自作品创作完成当年的最后一天起五十年,同时对于此类作品不适用著作人格权。[2]目前,我国现行出台文件均没有对AI生成物是否符合《著作权》法意义上的作品给出结论性评价。而在国内现有的案例中,对于AI生成的作品是否是“作品”也形成了完全相反的观点。让我们先回归法条,我国《著作权法》中所称的作品,“是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”,所以作品具有两个实质构成要件:“独创性”和内容属于“智力成果”。那么这里的“智力成果”是否必须为人类的智力成果呢?我们从(2019)粤0305民初14010号“Dreamwrite”案件中可以看出一些判断方向。深圳南山区法院认可了由Dreamwriter软件自动撰写完成的文章可以被认定“作品”,但其在说理部分强调了Dreamwriter软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,也是由Dreamwriter软件这一技术本身的特性所决定……从涉案文章的生成过程来分析,该文章的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。其观点是,人工智能生成内容基于人工智能的控制人或研发人员设置一定的技术、算法而得,其在一定程度上仍属于人类的智力成果。但同时可见,我国法院在判断AI生成物是否是作品的过程中,仍不可排除地需要甄别“人”在作品中的地位和作用。然而随着深度学习技术和大数据等网络技术的飞速发展,人工智能早已摆脱了遵循既定算法和程序的计算机辅助工具的地位,能够独立自主创作。这种自主创作的方式将可能使人对作品的控制性创造作用越来越小。因而,笔者认为,美国版权局的甄别方法或对我国AI生成物的保护具有一定的借鉴和参考意义。当然,我国《著作权法》虽暂无定论,却不妨碍生成式AI的提供者通过与用户订立协议的形式约定生成物的著作权归属。 三、人类如何拥抱生成式AI? 生成式AI给人类带来的冲击感毫无疑问是强烈的,甚至对一些职业造成了现实的威胁,比如游戏制图、影视美术、工业设计等领域,AI看上去稍加训练便可以替代,想象力甚至超越人类。但通过上文对AI原理的分析,我们也可以清醒地认识到,AI虽然具备了深度学习的能力,但仍在模拟人类进行思考,也需要通过人类来甄别一些信息。比如文本生成型AI,当我们需要一个专业领域的LLM时,用于预训练模型中的知识库就显得尤为重要。由于大多数预训练模型都是在通用训练语料上进行学习的,对于一些类似金融、法律等特殊领域中的概念和名词,AI都无法具备很好的理解。所以需要在训练语料中加入一些领域数据,以帮助模型在指定领域内获得更好的效果。这就给了专业领域的人才以新的合作机遇,而未来,训练完成的AI将可能有针对性地适配在各个专业领域内,成为能提高人类效率的良好工具。而图片生成式AI的新赛道则展露的更早,美国早已出现了售卖提示词的网站。在AI的世界里,提示词(Prompt)就是和AI沟通语言的桥梁,通过准确的使用关键词,才能让AI生成出自己想要的、具有稳定风格的作品。而那些能让AI做人类想要让他们去做的事情的专家被称为提示词工程师(Prompt Engineer)。 四、我国“提示词”保护的思路的构想 目前国内外,已有很多使用大模型进行生产创作的实践应用,涉及软件开发、文本处理、图像生成等多个领域,而“如何写出好的提示词”正在成为各个领域热论的议题。接踵而来的,即是优秀的提示词如何能够保护?我们首先来分析其是否能够通过《著作权法》进行保护。一些由词组、短句堆砌而成的较为简单的提示词,由于其本身不能联系成为一个语义连贯,具有独创性意义的作品,因而不属于著作权法保护的对象。而如将古诗词“横看成岭侧成峰,远近高低各不同”作为提示词,亦无法获得保护,因为该作品已属于公有领域,同样不符合保护条件。由此来看,提示词想要获得《著作权法》保护,则可能需要进行非常详细的描述,同时又要具备独创性的特征。如果要求提示词工程师一定要达成上述条件,其智力成果才能获得保护,确实是有些强人所难,更有些强AI所难,因为AI的本质系一系列计算机程序的组合,其善于接受的指令通常应当是简洁、简短、明确的词语或短句,并不需要过多的修饰或完整连贯的意思表示。但一段好的提示词的确需要工程师进行反复的推敲、实验、修改,同时也需要工程师具有一定的计算机软件编程知识或至少应当初步了解其所被提示的AI的基本工作或运作原理,要付出非常极大的努力,不可否认一段优秀的提示词应当被认定是智力成果。那么,在提示词本身的基本表达不能被著作权保护的情况下,是否有更好的保护方式呢?笔者认为,在没有新的法律法规制定和颁布之前,我们可以在现有知识产权法律法规框架体系中寻找适合的方式,首先,提示词的排列组合方式可以被定义为一种方法,而方法是可以通过发明专利进行保护的,简单以绘画类AI举例,当我们需要使用提示词通过绘画类AI生产作品时,提示词通常至少会包含需要绘画的物品、物品的色调、整体绘画的风格,如包含人物肖像,亦需要人物肖像的特征,人物的情绪定义等,对于这么多关键信息,我们采用不同的排列方式将会得到AI生成的不同表达的作品,例如先体定义总体风格并嵌套色调、先定义情绪再嵌套肖像特征与先定义色调、肖像特征最后定义风格和情绪将获得不同的作品,这种方式即方法如具有一定的新颖性和创造性,是可以尝试申请发明专利并获得发明专利的保护的。当然,通过发明专利保护的劣势也非常明显,即一件发明专利的审查期限至少需要12个月,甚至更久,对于提示词规则的生命周期而言,保护是否会滞后可能是需要进一步考量问题;其次,我们来看提示词的本质,即一些具有明确含义的字、词、短语或短句(下文我们称之为“提示词元素”),其中明确的含义一般是指没有歧义,只有准确表达,让AI准确领悟提示人的意图,才能更有效地创作AI生成物(作品),从这一特性我们可以基本断言有效且优秀的提示词元素是有限的,例如可以有效提示肖像的提示词元素是这几个、有效提示情绪的是那几个、有效提示风格的是这一系列、有效提示运动状态是那一系列。这样大家是否想到,或者已经有非常多的企业已经在做的一个工作就是收集并汇总各个领域有效且优秀的提示词元素,并将其分类梳理为数据库,而“数据库”是我国著作权法明确保护的作品客体。所以,即便实际应用的某一段提示词不构成著作权法意义上的作品而不能获得保护,但可以考虑对提示词的分类组合的数据库进行确权和保护,而其关键点可能在于提示词的分类即数据库的字段设置,具体我们将另外行文分析。AIGC可以说是一项最接近普通人的AI运用,它使得AI不再那么高不可攀,只要一台联网的终端,人人都可以通过向AI发出指令的方式进行创作,并得到AI创作物(AIGC)。AIGC让人们体会到了AI的强大、便捷和效率,即便是在当下生成式AI实际应用发展的初期,其已经能为个人、企业解决非常多棘手的、繁杂的问题,其迅速热门也就不足为奇。由此接踵而来的当然是各种法律问题,无论是AI服务的提供者、AI服务的运用者、AI生成的作品的阅读者都会想要了解自己在提供服务、使用服务、浏览作品时应当符合的法律规范,笔者的系列文章意在通过探讨分析我国以及世界相关法律法规并结合自身通过分析得出一些粗浅结论让大家更好地了解AI相关法律问题,并希望能拓宽大家的视野,为大家在AI领域的运用提供灵感。下一篇文章,我们将着重探讨我国对于生成式AI的态度以及相关管理规定的解读,AI生成物如何避免侵权等问题。 注释(上下滑动阅览) 【1】 《大规模预训练模型》,《中国计算机学会通讯》2021年5月第5期,P8【2】 [ 唐蕾.人工智能生成物的著作权保护比较法研究——以元宇宙背景为视角[J].电子知识产权,2023,No.376(03):81-90.]参考文献【1】《大规模预训练模型》,《中国计算机学会通讯》2021年5月第5期【2】《一文读懂ChatGPT模型原理》,JioNLP团队,知乎【3】ChatGPT的工作原理:机器人背后的模型,36氪,百度赵婧专栏文章SPECIAL COLUMN 赵婧 罗庚 | 从郑渊洁案看“在先权利”保护的边界 虚拟偶像法律问题研究:虚拟偶像著作权及人格权问题探讨 法律视角解构NFT 作者:赵婧 罗赓 沈琲 编辑:Sharon 点击图片查看文章...
AI赋能法律工作:律师实用指南
AI律师助手

AI赋能法律工作:律师实用指南

这篇文章主要探讨了人工智能助手在法律工作中的应用及其对律师业务的影响。文章指出,尽管AI技术在语言理解和生成方面具有显著优势,并能帮助律师完成部分重复性和标准化的工作,但AI并不能完全替代律师。同时,如何最大化利用AI工具提升工作效率成为律师们需要关注的问题。文中建议律师应在了解自身工作流程和需求的基础上,尝试将AI工具应用于日常工作中,并通过学习AI使用技巧和梳理工作流程,使AI更好地服务于律师的工作。
移投行|“背锅”的GPT律师上线了 快到“智法通”跟他聊聊
AI律师助手

移投行|“背锅”的GPT律师上线了 快到“智法通”跟他聊聊

 “GPT”全称为Generative Pre-trained Transformer,直译为“生成型预训练变换模型”,是一种基于互联网、可用数据训练的文本生成深度学习模型。2023年3月21日,微软公司创始人比尔·盖茨在他的博客文章《人工智能时代已经开启》中表示,“自1980年首次看到图形用户界面(graphical user interface)以来,OpenAI的GPT人工智能模型是他所见过的最具革命性的技术进步”。 前几年有一部热门美剧《西部世界》(West world),讲述的是仿生机器人“接待员”在名为“西部世界”的游乐园里被杀戮、被虐待,后来通过自主学习、情景训练而觉醒,后来反杀到人类世界的故事,而反杀的重要手段,就是收集进入游乐园里的人类数据,使自己的思维水平达到甚至超过了人类的水平。人们赞叹其出神入画的特效和惊心动魄的情节的同时,也在深度思考,在几乎必将到来的人工智能社会里,我们将如何更新自己的三观,如何适者生存。 以前,人工智能对于社会大众而言,多是抽象的、理论的,但ChatGPT的出现,在GPT前面加了一个Chat(聊天),使人工智能走向前台,走向生产、服务领域。人工智能如果和真正的人类愉快地聊天了,印证其在计算、推理、情感层次上都有质的飞跃,但这只是框架上的,或者形象直白地说成“先天的智力潜能”,但还需要有庞大的输入数据让其“见多识广”,把这样的潜能发挥出来。因此,ChatGPT也“渴望”通过与人类交流来变得更”聪明“。 GPT律师,就是在法律服务领域的“ChatGPT”,当然,他和其他GPT一样,在一开始也只是个理论框架,没有数据库,后来,通过不断地与输入信息、整合数据、深入学习,变得越来越聪明;就像前述“西部世界”的游乐园的创始人福特与仿生人“德罗丽丝”进行不断地谈话,帮助其成长一样,现在的GPT律师,经过前期大量的测试,已经可以使用各种现有法律数据库,这些数据库包含 了大量的法律规定、案例、期刊文章、文件和其他有关法律的信息,可以帮助客户在他们的日常工作中做出更好的决策。而给GPT律师“天生”搭建的框架,使具有了至少等于一般人类的基本或日常知识水平,同时进一步改善其访问和查询这些数据库的方式,提高效率和准确性。 与人类律师不同,GPT律师不会劳累或疲倦,24小时工作,还能同时出现在不同时空,同时接待不同的客户,随时随地回答你突然在脑海里迸出的问题;他的记忆力超强,不会忘记曾经接触的信息和完成的事项,虽然在情感、社会背景判断和人性化方面还有很长的路要走,但足以应付人们日常遇到的法律问题。 一般情况,在现实生活中,律师咨询是按小时或次数收费的,且收费标准不低,要在短时间内把事实讲清楚,把疑问解答全,通常是很有挑战性的;GPT律师能以极高的性价比,聆听你对事实的描述,解答你对法律的疑惑,接受你无限次的追问,在很短的思考时间后,给予及时的回应,当你贴身的法律好帮手。 虽然你面对的只是手机屏幕,一个不怕”背锅“的虚拟角色,但只要你敢于尝试,勇于拥抱最前沿的科技,把他想象成一名真正的律师,或一名精通法律的人,放心、坦诚向他咨询,相信您一定会有意想不到的收获。  “智法通”作为国内第一家使用AI律师的接口现已展开公测,对接了世界上最前沿的技术,欢迎大家参与体验。欢迎扫码: 移投行家族办公室(IBKFO) 移投行家族办公室(IBKFO)品牌起源于英国伦敦,专业致力于家族企业、金融财团的财富传承和资产保护,目前总部位于上海,已在宁波、重庆、成都、长沙、武汉、南京、杭州、郑州、合肥、昆明、常州、沈阳、青岛等20多地设有运营中心,也在香港、迪拜等国际主流城市设有分支机构。现已汇聚数百名来自国内外的各类法律、金融、税务、保险精英和家族办公室专家,具备广博的专业知识、精湛的专业技能和丰富的实践经验,可以为您提供跨越国内外的财富传承和资产保护解决方案。 我们旨在提供个性化、一站式的定制化服务及解决方案,持续有效地为客户创造价值,为客户提供更贴心、更全面的家族办公室服务。 戳下面的阅读原文,获取详情资料!
简述生成式人工智能(ChatGPT)的法律风险
AI律师助手

简述生成式人工智能(ChatGPT)的法律风险

关注“税律笔谈”公众号,可获取更多实务观点! 作者:王泉/诉讼律师、桂亦威/诉讼律师|注会 【税律笔谈】按 近期(2023年7月13日),《生成式人工智能服务管理暂行办法》颁布,了了二十几条反映了国家对人工智能发展的鼓励态度和对新生技术可能导致的未知风险的担忧,并提出了“坚持发展和安全并重”、“促进创新和依法治理相结合”的原则,鼓励生成式人工智能健康安全发展的理念,贯穿于整部《办法》。可以预见的是,人工智能的发展是未来技术及经济转型升级的核心,而国家基于安全、风险的考量,定会出台系列制度及指引确保人工智能的健康发展。针对近半年最受人讨论和推崇的人工智能(如ChatGPT),本文则简述其背后的相关法律风险,供抛砖引玉、引发思考。 【律师总结】 一、国家对生成式人工智能的态度及未来发展 从《办法》的规定内容来看,国家“鼓励生成式人工智能的创新发展”、“鼓励生成式人工智能技术在各行业、各领域的创新应用”、“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”、“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定”、“鼓励采用安全可信的芯片、软件、工具、算力和数据资源”等,可见国家对人工智能的发展是包容鼓励的,并贯穿于各行各业,未来也将动用各方面资源支持人工智能的创新发展。 同时,为防范风险、确保生成式人工智能的健康发展,《办法》明确了生成式人工智能服务应当坚持的社会主义法治理念和社会公德及伦理道德。具体包括:“坚持社会主义核心价值观”、“采取有效措施防止产生歧视”、“尊重知识产权、商业道德,保守商业秘密”、“尊重他人合法权益”、“提升透明度,提高生成内容的准确性和可靠性”。 就技术和人工智能成长发展的角度,考虑生成式人工智能离不开数据的采集、训练等数据处理活动,国家将推动生成式人工智能基础设施和公共训练数据资源平台建设,推动公共数据分类分级、有序开放,逐步扩展高质量的公共训练数据资源。这将在源头上确保生成式人工智能训练数据来源的合法性、真实性、客观性及风险的可控性。微观层面,《办法》对生成式人工智能服务提供者开展预训练、优化训练等训练数据处理活动,提出了具体要求,即:“适用具有合法来源的数据和基础模型”、“不得侵害他人知识产权”、“涉及个人信息,应当取得个人同意或符合规定”、“采取有效措施提到训练数据质量,增强真实性、准确性、客观性、多样性”、“遵守《网络完全法》、《数据安全法》、《个人信息保护法》等相关规定”。 以上体现了国家对生成式人工智能技术在各行各业创新发展应用的鼓励态度,也对其健康发展提出了制度性要求。个人认为,从规定内容精神来看,国家对境外生成式人工智能的服务提供(如ChatGPT)是较为谨慎的,这不仅基于支持国内人工智能技术发展的考虑,更基于对国家安全、社会公共利益、数据安全等方面的基本考量。 二、在国内使用ChatGPT涉嫌违法 需要指出的是,我国并未接入OpenAI开发设计的ChatGPT软件,境内人员使用ChatGPT的,通常需要借助使用VPN等工具“翻墙”接入。但根据《计算机信息网络国际互联网管理暂行规定》规定,“任何单位和个人不得自行建立或擅自使用其他信道进行国际联网。”违反规定的,公安机关可给予警告、通报批评、责令停止联网,可以并处15000元以下的罚款。因此,境内人员通过注册并在境内“翻墙”使用ChatGPT的,属于违法行为。 当然,我们在市面上能够看到的许多以“ChatGPT”命名的人工智能聊天软件,可以使用境内网络进行链接使用,其中大部分属于国内“山寨”版AI软件,并非OpenAI开发的ChatGPT软件;也有少部分属于境内人员注册了ChatGPT账号,并利用该账号,基于ChatGPT开放的API接口在国内开发了聊天机器人demo,然后以此收取国内使用者的服务费用。 以上无论是打着“ChatGPT”名义的山寨版人工智能软件的信息服务,还是基于ChatGPT开放的API接口所开发的人工智能软件的信息服务,都属于《中华人民共和国电信条例》中所提到的“经营电信业务”中“电信增值业务”中的“信息服务业务”,依法需要取得电信业务经营许可证。根据《电信业务分类目录(2015年版)》,“信息服务业务是指通过信息采集、开发、处理和信息平台的建设,通过公用通信网或互联网向用户提供信息服务的业务。信息服务的类型按照信息组织、传递等技术服务方式,主要包括信息发布平台和递送服务、信息搜索查询服务、信息社区平台服务、信息即时交互服务、信息保护和处理服务等”。“信息发布平台和递送服务是指建立信息平台,为其他单位或个人用户发布文本、图片、音视频、应用软件等信息提供平台的服务。平台提供者可根据单位或个人用户需要向用户指定的终端、电子邮箱等递送、分发文本、图片、音视频、应用软件等信息。”“信息搜索查询服务是指通过公用通信网或互联网,采取信息收集与检索、数据组织与存储、分类索引、整理排序等方式,为用户提供网页信息、文本、图片、音视频等信息检索查询服务。”综上,境内个人或企业利用人工智能聊天软件,通过输入训练数据,根据用户对话要求,输出经过采集和处理的数据信息服务,属于典型的“信息服务业务”范畴,应当取得电信经营许可证。个人或企业违反规定,擅自经营上述业务的,电信管理机构有权责令改正、没收违法所得,处违法所得3倍以上5倍以下的罚款;情节严重的,责令停业整顿。若个人或企业违反经营许可的法律规定,扰乱市场秩序,情节严重,则会触犯《刑法》规定,涉嫌非法经营罪。 除此之外,现实生活中,还有不少网友通过短视频、网络直播、网页内容发布等方式传授境内人员如何“翻墙”注册并使用ChatGPT,借此收取一定的授课费用。此举通过传授他人使用如何“翻墙”服务器浏览国外网站,涉嫌“提供侵入、非法控制计算机信息系统程序、工具罪”,情节严重的,处3年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处3年以上7年以下有期徒刑,并处罚金。 所以,尽管我国并没有禁止公民使用ChatGPT,但是在国内使用ChatGPT不可避免使用到VPN。因此,在境内使ChatGPT,违法风险较大,需要谨慎对待。 三、生成式人工智能在输入数据端可能存在的违规风险 所谓生成式人工智能技术,是具有文本、图片、音频、视频等内容生成能力的模型及相关技术。这是《办法》关于生成式人工智能技术,针对其生成输出端内容的定义表述。但是,就生成内容的程序而言,生成式人工智能离不开大量数据的学习,从中提取规律和模式,才能生成满足用户需要提问的输出内容。因此,就输入端而言,我们需要提供大量的数据“喂养”技术,而数据的来源就牵涉各个层面的法律问题及可能存在违规风险。主要包括: 1、个人信息的违规采集及泄露风险 生成式人工智能通过获取大量数据进行训练学习,不可避免地会收集到公开渠道的各种含有个人信息的数据、用户的账户信息、对话内容、社交媒体信息、日志信息,并且用户在使用类ChatGPT工具进行对话时,亦可能透露个人的医疗健康、财产账户、行踪轨迹、宗教信仰等个人信息。按照《个人信息保护法》的规定,个人信息的处理需要取得本人同意或具备其他合法性基础。但是,类ChatGPT工具在获取个人信息的同时并取得潜在信息主体的同意具有实践上的难度。就当前数据合规的要求而言,类ChatGPT工具仍然需要遵守相关法律规定,采取技术手段,防范个人信息的违规采集及泄露风险。当然,《办法》也提到国家将“推动生成式人工智能基础设施和公共训练数据资源平台建设,推动公共数据分类分级、有序开放。”这将为生成式人工智能技术的发展提供制度保障。 2、企业商业数据采集的违规及不正当竞争风险 根据《反不正当竞争法》的规定,经营者不得以不正当的方式获取或使用其他经营者的商业数据或商业信息。如果相关商业主体采取了技术措施限制他人的访问限制或者将商业数据进行了保密处理,类ChatGPT工具仍然通过技术爬虫方式绕开数据主体设置的访问限制或真人审核,径直获取该类商业数据,或者通过商业主体员工对话的形式间接获取商业数据,涉嫌违规采集数据,并存在商业不正当竞争的风险。 3、版权信息内容的违规采集及侵犯他人著作权的风险 考虑公开网络存在大量的原创版权文章,类ChatGPT工具不可避免将其作为攫取对象予以训练,并将训练学习的成果反馈给用户。在当前《著作权法》的封闭保护制度下,类ChatGPT工具未经权利人同意,复制、修改、改编、翻译、汇编等处理他人作品的行为,存在侵犯他人著作权的风险。当然,部分国家对于公开“文本及数据挖掘”处理的版权问题设置了例外规则,纳入合理使用的范畴。对于此方面的立法处理,我们可以期待国内立法的完善。 4、违规采集国家政务数据及侵犯国家数据主权和涉嫌违法犯罪的风险 根据《数据安全法》的规定,政务数据的存储、加工、处理,受到严格监管。为保障政务数据安全,国家机关须建立健全数据安全管理制度、落实数据安全保护责任;为推动政务数据开放利用,国家制定政务数据开放目录,构建统一规范、互联互通、安全可控的政务数据开放平台。可见,国家对政务数据的公开态度是保持谨慎的,在没有具体政务数据利用制度的规定条件下,类ChatGPT工具不应贸然攫取政务数据进行训练分析。否则,极有可能违反《数据安全法》的规定,侵犯国家数据主权、破坏社会公共秩序。类ChatGPT工具通过技术爬虫方式绕开部分官网设置的真人审核方式,获取政务数据的(如中国裁判文书网对判例的搜索设置了真人注册、验证码核实的有限查询措施),涉嫌非法获取计算机信息系统数据罪。 5、境外违规采集数据及侵犯国家安全、公共利益等风险 为维护国家数据主权,保障数据安全,维护国家主权、安全和发展利益,国家对数据出境出台了《数据出境安全评估办法》,相关数据处理者应当遵守《网络安全法》、《数据安全法》、《个人信息保护法》及前述评估办法等相关法律的规定。截止目前,国家未引入ChatGPT工具,除了为国内人工智能的发展提供良好的竞争环境外,还基于国家安全、公共利益的考量。境内人员通过VPN访问并使用ChatGPT工具,必然导致境内数据的违规出境,引发数据安全风险。 四、生成式人工智能生成过程存在的不可控风险和道德风险 就人工智能的本质而言,其主要研究、模拟、延伸和扩展人类的智能。随着人工智能技术的发展,其愈发具备人脑的思维能力,不可排除最终会形成意识,而人工智能在不同技术水平的状态下,都必然会存在不同程度的“算法黑箱”问题。 所谓“算法黑箱”,系指一个算法对于其输入和输出之间的关系具有不透明性,即无法清楚地了解该算法如何处理输入数据,以及输出数据如何处理得出。当然,“算法黑箱”有人为因素,如技术公司人为将带有歧视的数据导入类ChatGPT工具或者技术公司出于维护竞争优势所采取的排他性商业政策,导致用户无法获悉人工智能算法的目标和意图。“算法黑箱”也有非人为因素,这种是基于技术本身的复杂性程度决定,人工智能既然是研究人的智能,我们可以把它理解为某种进化程度的“人”,“人”的意识“主观性”决定了我们无法窥探任何“人”的获取知识及得出结论的思维过程。 对于具有人为因素的“算法黑箱”问题,我们可以通过立法加以监督、规范,确保算法的透明度,具有可控性;但对于非人为因素的技术层面的“算法黑箱”问题,我们无法进行有效解释,并无法通过规范性立法或有效监督活动予以控制,此乃人工智能发展将必然会面临的不可控风险。 另外,暂且不论人工智能的类“人”性,尽管技术存在客观中立性,但是人工智能技术的开发、运用,离不开人的主观因素。以ChatGPT为例,其开发应用本身就基于西方社会的价值观和意识形态,鉴于此建立的算法模型,在数据采集及输出内容上或多或少带有天然的价值偏向,最终可能会导致意识形态的渗透。若某类算法模型的开发本身带有“人”的主观价值偏向,或者在算法模型的使用过程中,过度喂养带有歧视性的数据,最终可能导致输出数据内容的道德风险。 五、生成式人工智能输出端内容对传统法律的挑战及可能存在的法律风险 所谓人工智能,简单来说,就是一种模拟人类智能的技术,随着人工智能技术的提高,人工智能训练学习数据量的不断扩大,人工智能愈发具备人类的思维能力、自我创造能力,愈发接近“人”的存在。生成式人工智能模型在经过不断训练学习,掌握人类知识,其输出的内容,也会逐渐具备“独创性”特征。同时,考虑“算法黑箱”及“算法歧视”的存在,以及输入的数据内容本身不具备客观真实性,生成式人工智能所制造的输出内容,可能侵害他人合法权益、社会公共利益甚至国家利益。在此情形下,随着人工智能技术的发展,人工智能行为到底是人的行为还是机器行为,区分边界会越来越模糊,人工智能可能挑战传统法律体系,生成式人工智能输出的内容也可能蕴涵法律风险,甚至法律风险存在难以归责的隐患。具体包括: (1)人工智能机器人是否具备民事法律主体资格?随着人工智能技术愈发接近“人”的存在,法律是否有必要扩充民事理论,赋予其民事法律主体资格? (2)生成式人工智能基于自身总结、分析、创造出的输出内容,是否构成法律意义上的作品,是否需要给予其知识产权的保护,相关作品的权利应归属谁? (3)生成式人工智能输出内容侵害他人权利时,责任归属主体如何确定?民事责任的归责原则如何确定?生成式人工智能服务提供平台,是否可以适用“红旗原则”免除其自身责任? (4)人工智能因非人为“算法黑箱”问题的存在,导致输出数据内容的不实传播,损害社会公共利益及国家利益,扰乱社会经济秩序时,是否需要追究相关责任主体以及追究何种主体的何种责任?
AI+法律:世界首款机器人律师,DoNotPay 不要付钱
AI律师助手

AI+法律:世界首款机器人律师,DoNotPay 不要付钱

2015 年,仅纽约市就收到了 5.65 亿美元的停车罚单罚款,司机平均每张停车罚单的花费在 45 至 125 美元之间。在大多数情况下,律师费比罚款本身还要高。因此,这些停车罚单通常不会受到任何争议。2019 年,美国前 16 个城市的停车罚单收入超过 14 亿美元。由于时间和资金有限,普通人缺乏资源在法庭上对停车罚单提出异议,特别是因为获胜和推翻罚款的几率很低。2022 年的一份报告发现,在低收入美国人寻求法律援助的 190 万起民事法律问题中,63%-70% 的人没有获得任何或足够的法律援助。 众所周知,与公司提出索赔争议可能是一个复杂且令人生畏的过程。例如,康卡斯特被指控在消费者不知情的情况下向他们收取隐性费用。无论是汽车租赁公司乱收费还是银行信用卡的莫名其妙的扣费,消费者想通过法律途径来维护自己的正当权益几乎是不可能是事情。超过 80% 的贫困线以下个人以及大量中等收入美国人在面临民事法律事务(包括儿童监护权、追债、驱逐和丧失抵押品赎回权)时得不到实质性支持。 DoNotPay自称是“世界上第一款机器人律师”。创始人乔舒亚·布劳德在他的Twitter个人简介中表示该公司正在“利用人工智能构建产品,以节省人们的时间和金钱”。DoNotPay通过其网站和应用程序向消费者提供服务,帮助消费者提出争议,并在各种问题上扩大法律援助的获取途径,从推翻停车罚单到申诉银行费用。 一、创立故事 DoNotPay 由 Joshua Browder(首席执行官)于 2015 年在斯坦福校园里创立。他在英国长大,12 岁时自学编程。当时他在 18 岁至 20 岁两年之间收到了 30 多张停车罚单,但他无力支付费用,萌生了 DoNotPay 的灵感,当时他正在斯坦福大学读大一(主修计算机,辅修经济学)。后来他才发现“如果你知道该说什么,你可以节省很多钱。” Source: Aspen Institute 他因能够帮助处理停车罚单而在朋友和家人中建立了声誉。人们开始向他求助,询问罚单方面的法律问题。他决定自动化他的解决方案,并于 2015 年 8 月创建了一个网站来帮助人们争夺停车罚单。该网站使用历史上成功的辩护作为模板生成停车罚单上诉信。布劳德在 2015...
AI“复活”逝者:法律风险与道德争议
AI律师助手

AI“复活”逝者:法律风险与道德争议

使用AI“复活”逝者存在法律风险和社会问题,可能导致侵犯逝者权益、的名誉和隐私等问题。随着AI技术的普及,数字生命已成为一把双刃剑,既有助于认识生命本质和促进科技发展,也可能导致伦理和安全问题。我们需要在尊重数字生命的同时,加强相关法律法规和伦理规范的建设,以确保 AI 技术的健康发展和人类利益的保护。
ChatGPT:人工智能助手的法律风险与前景评估
AI律师助手

ChatGPT:人工智能助手的法律风险与前景评估

本文主要介绍了2022年11月推出的聊天机器人模型ChatGPT,以及其在社交媒体上的火爆程度和资本市场对其的热捧。随着国内科技企业的布局,ChatGPT的概念在资本市场板块升温。然而,作为一名法律专业人士,作者也分析了ChatGPT可能带来的法律安全风险。ChatGPT是一款由人工智能研究实验室OpenAI开发的自然语言处理工具,使用的核心技术是Transformer,具有强大的跨模态能力和上下文对话能力。但尽管在 many fields它可以 "create answers",但当用户寻求正确答案时,ChatGPT可能无法给出正确的法律适用答案,需要结合具体法律场景和法律规定进行分析。