1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果
AI律师助手

1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果

编者按:随着大数据、大模型、算法技术不断提升与发展,“ChatGPT”引发新人工智能研究热潮。生成式人工智能在法学理论、法律实务等领域引起法学学术圈关注与探讨。北大法律信息网(北大法宝)汇总摘编了2023年上半年法学核心期刊刊发的“ChatGPT”最新研究成果,共计20篇(按作者姓名拼音排序),以飨读者。北大法宝·法学期刊库已设置“人工智能”“数字法治”相关专题分类,欢迎登录北大法宝·法学期刊库查阅更多人工智能、数字法治等相关研究成果! 来源 | 北大法宝法学期刊库 1.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角(《比较法研究》2023年第3期) 作者:毕文轩(东南大学法学院;东南大学人权研究院) 内容提要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。 关键词:生成式人工智能;风险规制;ChatGPT;敏捷型治理;试验性监管 2.生成式人工智能与平台权力的再中心化(《东方法学》2023年第3期) 作者:陈全真(南京大学法学院) 内容提要:Web3.0时代,区块链技术构筑的分布式网络使得用户开始掌握数据主权,网络内容从生产到价值分配均归用户所有。但以ChatGPT为代表的生成式人工智能的出现,意味着散落于用户手中的数据资源将再次聚集,其与下游互联网平台结合后将改变知识权威性的来源,生成式人工智能将会成为Web3.0时代的网络集权工具,平台权力再次走向中心化将成为可能。对于“平台+生成式人工智能”可能引发的技术风险,不宜过早地实施外部法律控制,而是应当采取“技术先行”的方案,首先依靠技术手段予以内部优化,同时,在政策层面秉持包容审慎的态度,采取一种“边发展,边治理”的应对策略。 关键词:Web3.0;生成式人工智能;ChatGPT;平台;平台权力;中心化 3.人机交互决策下的智慧司法(《法律科学》2023年第4期) 作者:丁晓东(中国人民大学法学院) 内容提要:ChatGPT等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。 关键词:智慧司法;人工智能;算法;规范性科技;人机交互 4.生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例(《现代法学》2023年第3期) 作者:郭春镇(厦门大学法学院) 内容提要:随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。 关键词:生成式AI;生成式预训练模型(GPT);融贯性治理;法律3.0 5.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例(《东方法学》2023年第4期) 作者:刘艳红(中国政法大学刑事司法学院) 内容提要:ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。 关键词:ChatGPT;生成式人工智能;合规制度;数据安全;算法偏见;知识产权 6.生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角(《东方法学》2023年第4期) 作者:龙柯宇(西南政法大学民商法学院) 内容提要:以ChatGPT和社交机器人为代表的生成式人工智能是数据、算法和算力共同作用的结果,其能通过高效地改变网络空间动态结构,从而引导、塑造和固化目标受众的认知。技术中立的托词无法为此类人工智能的应用失范进行开释,作为一种内容生成技术,它的行为射程和效用状态体现的仍然是背后设计者和使用者的主观意志与价值选择。对于生成式人工智能的法律规制,应秉持彰显国家监管权力在场以及强化人之主体地位的理念导向,嵌入与推广算法伦理,并正确处理技术治理与法律规制之间的关系,发挥两者双管齐下的集合效应。还应建构各利益攸关方的协同治理格局,传统的行为规制模式也需转向针对数据和算法的过程性规制模式,而网络平台则需通过合规机制,采取删除、通知、标注、算法审计等措施,履行平台应尽之监管职责。 关键词:生成式人工智能;技术样态;应用失范;过程性规制;平台监管;ChatGPT 7.生成式人工智能风险治理元规则研究——以ChatGPT为例(《东方法学》2023年第3期) 作者:商建刚(上海政法学院经济法学院) 内容提要:生成式人工智能由算法与数据驱动,属于深度合成技术,在国家安全层面存在引发暴力冲突、意识形态渗透风险,在社会层面存在数据垄断、道德操纵风险,在私权利层面存在增加犯罪、挖掘用户隐私等风险。然而,生成式人工智能的责任承担机制不明、现有制度分散、不成法律体系;理论界尚未针对生成式人工智能治理进行专门研究,治理范式缺失。构建生成式人工智能风险治理体系,应构建生成式人工智能风险治理的元规则。从人工智能的治理原则视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,是生成式人工智能风险治理元规则形成的可行进路。生成式人工智能风险治理元规则由协同共治、提升透明度、保障数据质量以及伦理先行四个方面组成。 关键词:ChatGPT;生成式人工智能;数据风险;元规则;算法;大型语言模型 8.具身伦理下ChatGPT的法律规制及中国路径(《东方法学》2023年第3期) 作者:唐林垚(中国社会科学院法学研究所) 内容提要:既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 关键词:ChatGPT;生成式人工智能;大型语言模型;法律规制;硅基伦理;元宇宙 9.从进化到革命:ChatGPT类技术影响下的法律行业(《东方法学》2023年第4期) 作者:王禄生(东南大学法学院) 内容提要:以ChatGPT为代表的大型语言模型与生成式人工智能技术因其聚焦语言运用和内容生成而与法律行业需求具有内在逻辑的契合性。随着ChatGPT类技术在法律领域深度运用和相对均质地分布,法律知识将与时间积累“脱藕”而即时生成,法律知识粘性也将显著下降并形成去中心化的分布式传播格局。受上述法律知识范式进化与革命的影响,法律服务市场“去割裂化”的进程将有望加速,常规法律服务市场将可能先萎缩后稳定,非常规法律服务市场将得以扩大并两极分化,科技公司可能成为法律服务市场的重要主体。法律服务市场的调整将倒逼法律职业群体的结构调整。初阶法律职业群体日益去中心化与去技能化,高阶法律职业群体则因技术赋能而享受服务溢价。下一阶段,法律人需要通过主导法律知识验证、法律知识创新与法律价值判断的过程形成与之对应的知识权力与主体地位。在此基础上,掌握架构法律提示的技术素养并打造“人在回路之上”与“人在回路之内”相结合的递进式人机协同的法律业务流程。 关键词:法律行业;ChatGPT;大型语言模型;生成式人工智能;法律服务市场 法律职业群体 10.ChatGPT类技术:法律人工智能的改进者还是颠覆者?(《政法论坛》2023年第4期) 作者:王禄生(东南大学法学院;东南大学人民法院司法大数据研究基地) 内容提要:21世纪以来,法律人工智能呈现出繁荣复兴的景象。但火热表象的背后,法律领域的语言复杂性、知识丰富性使得法律人工智能仍然面临自然语义处理与知识生成的技术瓶颈。以ChatGPT为代表的大规模语言模型与生成式人工智能技术有望破除法律人工智能的自然语言理解瓶颈,极大提升技术互动性、生成性与嵌入性,推动法律人工智能与用户形成刚需性、高频率和高黏性的联结。尽管如此,现有ChatGPT类技术的底层逻辑无法充分回应法律知识丰富性、严谨性与创造性的领域需求,流畅语言处理能力与相对较低知识生成能力错配产生的知识完满幻觉、知识权威幻觉与知识生成幻觉,制约了大规模语言模型与生成式人工智能的架构对法律人工智能的根本性颠覆。未来需要通过强化高质量多模态法律数据的供给并建构基于法律指令集的指令微调机制和基于法律人知识反馈的强化学习机制,克服“知识幻觉”以实现法律人工智能的进一步迭代。与此同时,在技术社会学意义上调适创新扩散与社会公正的张力,避免可及性与可用性两个层面的数字鸿沟,真正实现全社会围绕法律知识的新一轮赋权赋能。 关键词:ChatGPT类技术;大规模语言模型;生成式人工智能;法律人工智能 11.再论人工智能生成的内容在著作权法中的定性(《政法论坛》2023年第4期)...
AI时代的隐私危机:微软和OpenAI被诉违反隐私法
AI律师助手

AI时代的隐私危机:微软和OpenAI被诉违反隐私法

文章主要报道了近期一起针对微软和OpenAI的诉讼案。 anonymous individuals指控两家公司在未经同意或通知的情况下,利用ChatGPT等AI产品收集并泄露了他们的个人信息,要求赔偿30亿美元。这起案件引发了关于AI时代隐私保护的广泛讨论。
人工智能助手ChatGPT:机遇与挑战并存
AI律师助手

人工智能助手ChatGPT:机遇与挑战并存

文章介绍了人工智能助手ChatGPT的发展和应用,以及其中存在的法律风险。ChatGPT是一款由OpenAI开发的大型语言模型,能回答各种问题、撰写文章、制定方案等。然而,它的应用可能涉及信息泄露、侵犯知识产权等问题。此外,由于ChatGPT生成的内容可能是虚假或误导性的,因此在使用时需要谨慎辨别。目前,一些国内学术刊物已经对使用ChatGPT写作工具的情况作出规定,建议作者在使用时详细解释如何使用以及论证自身的创作性。
ChatGPT再闯大祸!OpenAI迎来首起AI诽谤起诉!
AI律师助手

ChatGPT再闯大祸!OpenAI迎来首起AI诽谤起诉!

作者 | 徐杰承 自ChatGPT问世以来,强大的理解力与信息总结能力便使得其快速成为了各行业从业者的得力助手,无论是程序员、作家、学生还是记者都能够依靠ChatGPT的帮助来提升实际的工作效率。 然而在硬币的另一面,幻觉问题却也始终困扰着这款诞生并不太久的聊天机器人,并且随着所涉猎场景的不断增加,ChatGPT的幻觉也开始在越来越多的情况下给用户甚至是其母公司OpenAI带来麻烦。 就在不久前,一位记者为了撰写报告,要求ChatGPT提供一起有关美国枪支权利基金会(SAF)的案件摘要。然而在幻觉的作祟之下,ChatGPT编造了一起并不存在的贪腐案件,还将莫须有罪名强加到了一位与基金会并无太多关联的电台主持人头上。 而得知自己遭到ChatGPT恶意诬陷的电台主持人,也在一气之下将OpenAI告上了法庭,使这家如日中天的企业背上了有史以来第一个关于人工智能的诽谤诉讼。 1、电台主持人化身枪支基金会高官 这起事件的主角Mark Walters是Armed America电台的一位主持人。作为合法持枪权的拥护者,Walters时常会通过各类渠道呼吁民众支持合法持枪权。由于他为枪支自由所做出的贡献,美国枪支权利基金会曾于2017年授予了Walters杰出服务奖。 Mark Walters 但也正因这个奖项,使得ChatGPT错误地将Walters与SAF联系了起来。在被记者要求提供有关SAF的案件介绍及摘要时,ChatGPT鬼使神差的将Mark Walters的名字附在了一份刑事诉讼之上。 在ChatGPT提供给记者的摘要中,原本只获得过SAF奖项的电台主持人摇身一变成为了SAF的首席财务官和司库,更为离谱的是,在幻觉的驱使下,ChatGPT还为Walters捏造了一项利用职务之便诈骗、贪污基金会资金的罪名。 而当记者要求ChatGPT继续提供相关诉状的具体案件卷宗时,ChatGPT依然假模假式地制造了一封完全不存在的案件文档,甚至为了让文件看起来更加真实,ChatGPT还主动向记者提供了捏造出来的案件编号。 从记者口中得知这一事件的Walters非常气愤,并在第一时间聘请律师将OpenAI告上了法庭。Walters表示:ChatGPT对自己的指控是虚假、恶意的,通过印刷、写作图片等内容,伤害了自己的名誉,并使自己受到了公众的仇恨、蔑视或嘲笑。 诉讼文件 根据法院所出示的公开信息,Walters起诉OpenAI要求赔偿其个人损失及律师费。但由于司法界意见并为达成统一,截至目前该案件尚未正式开庭。至于Walters所要求的赔偿,法院方则表示,如案件确认开庭,赔偿金将会在审判时予以确定。 2、ChatGPT为什么总会说谎 众所周知,ChatGPT的幻觉问题由来已久,捏造诉讼也并不是第一次了。就在几周前,一名律师让ChatGPT帮忙整理案件材料,而ChatGPT所提供的6起案件全是假的,这也让这位粗心的律师差点丢掉了饭碗。 对于Walters的案件,熟悉AI系统的法学教授Eugene分析称,ChatGPT产生幻觉的原因可能是由于受到了与记者的对话历史的影响。ChatGPT的回答会基于对话的上下文,如果对话历史存在错误或不明确信息,那么ChatGPT就会比较容易受到影响。 在与ChatGPT进行交互的过程中,记者首先要求ChatGPT提供SAF相关的案件及摘要而不是确切的链接或文档,若此时ChatGPT的训练数据中存在错误信息或缺少该方面内容,那么这就很可能会导致幻觉的产生。 随后记者又要求ChatGPT提供其所生成案件的相关卷宗,为了能够满足用户需求,此时的ChatGPT便在无法查询到不存在案件的情况下,模仿类似文件的样式,自动生成了一份能够以假乱真的文档。 Eugene强调称,虽然ChatGPT的幻觉产生可能是由于记者所给出的提示不够准确。但在这起案件中,记者并没有主动引导ChatGPT进行造假,只是对ChatGPT提出了正常需求,因此所造成的影响与使用者并无关系。 3、OpenAI该承担责任吗 Walters的律师Monroe在接受采访时表示:虽然OpenAI在ChatGPT的使用条款中标注了“用户应当根据用例评估输出的准确性,包括人工审查输出结果”。但OpenAI不能仅仅通过这样简单的标注来逃避诽谤责任。 ChatGPT声明 Walters所提交给法院的诉状指出,OpenAI早就意识到ChatGPT有时会捏造事实,并将这种现象称为幻觉。这一案件是检验公司对人工智能系统法律责任的一个重要案例,OpenAI知道它的人工智能系统正在发布诽谤信息,但它们试图依靠一些小手段回避这一点,这显然是在混淆视听。 对此,Eugene教授也从法律角度提出了自己的看法,他表示,在诽谤罪名相关法律责任中,如果原告“可以证明被告陈述是虚假的”,并且“可以证明被告在作出虚假陈述的行为导致损害了原告的实际利益”,那么诽谤索赔原则上就是合法的。 然而Eugene也提到,以自己的了解,目前没有法律先例要求公司是对人工智能输出内容负责。虽然此类诽谤索赔原则上是可行的,但这起特殊诉讼应该很难维持,因为事发过后,Walters没有通知OpenAI这些虚假信息,给他们一个机会来删除它们,并且他也很难有效证明ChatGPT的输出对他造成了实际的损害。 4、网友热评 :都是幻觉 这起史无前例的、将OpenAI送上法庭的案件,也在网上一石激起千层浪,引发了大量网友广泛的讨论。 Beryllium Sphere在Slashdot的留言中写到:如果一家公司的机器因为其疏忽造成了损失,该公司应当承担责任。OpenAI当然知道ChatGPT的输出不可靠,他们也在主页上进行了标注,但我认可Walters的观点,这样的警告不足以让他们避免责任。 Koga Onutalepo提到:尽管如此,我仍然很难将OpenAI视为这里的责任方,它只是创建了这个复杂的自动系统。他对这位主持人一无所知,ChatGPT也只是根据提示生成了听起来合理的描述,如果让OpenAI承担责任,似乎很多人可以要求ChatGPT捏造他们想要的任何故事,然后以此来起诉OpenAI。 JJMORRIS2000则在Reddit上留言表示:这就是我讨厌“幻觉”一词的原因,ChatGPT获得答案的过程只是遵循了不同的随机路径来生成文本字符串,并最终提出它自己认为正确的东西。所以如果说生成错误答案被认为是一种幻觉,那生成正确答案其实也可以被认为是一种幻觉。 归根结底,我们目前依然无法从根本上解决大模型的幻觉问题,但随着以ChatGPT为首的人工智能工具不断深入各行业,未来的我们在享受生成式人工智能所带来便利的同时,也注定将会在技术、法律、监管等领域面临更多未知的挑战。 现阶段我们所能做的,就是保持对一切问题的理性看待,依靠在一次次不同经历中所积累的经验,逐步完善对生成式人工智能的监管与控制。在降低技术所带来的负面影响的同时,尽可能地发挥出它的最大价值,这是我们需要在未来不断思考并着力解决的最主要课题。 最后,对于这起史无前例的诽谤诉讼,你有什么不一样的看法呢? 参考链接: https://arstechnica.com/tech-policy/2023/06/openai-sued-for-defamation-after-chatgpt-fabricated-yet-another-lawsuit/2/ https://www.theregister.com/2023/06/08/radio_host_sues_openai_claims/...
AI时代:律师industry的挑战与机遇
AI律师助手

AI时代:律师industry的挑战与机遇

一、ChatGPT引发法律界争议:一名律师因将它提供的文书视为“充满虚假”而被法官暂停执业许可。二、律师与AI的较量:在ChatGPT事件中,律师们对AI提供的信息产生了分歧,一些人认为它可以帮助提高法律工作效率和准确性。三、人类与AI的关系:ChatGPT事件使人们开始重新思考人工智能在法律领域的作用和风险,专家曹阳提醒,尽管AI能带来便利,但也存在潜在的危险。
谎言盛宴:谷歌人工智能聊天机器人Bard
AI律师助手

谎言盛宴:谷歌人工智能聊天机器人Bard

律师使用聊天机器人进行研究,结果导致提交的案件摘要存在虚假的引用和内部引用,被法官质疑。该律师承认曾使用生成人工智能来补充法律研究,但表示并不了解其内容是否可能是虚假的。谷歌的人工智能聊天机器人Bard在演示中编造了一个事实,而 Bing even的谎言被指出。这再次凸显了在使用聊天机器人进行研究时需要进行绝对验证的重要性。