ChatGPT崛起背后的汉王科技:人工智能专业化模型引领行业变革
AI律师助手

ChatGPT崛起背后的汉王科技:人工智能专业化模型引领行业变革

随着国外OpenAI的智能聊天项目ChatGPT在人工智能领域的影响力越来越大,国内ChatGPT概念股的股价也近期出现了大幅上涨,其中汉王科技是典型的代表。然而,汉王科技在2022年的业绩表现却并不理想,预计净利润将亏损。尽管如此,汉王科技在人工智能科技领域的研发投入依然增长,主要业务包括智能交互、文本大数据、AI终端和人脸及生物特征识别。此外,汉王科技还面临一起买卖合同纠纷诉讼。
恶意行为与法律回避
AI律师助手

恶意行为与法律回避

这篇文章讨论了法官对律师们行为的评价。法官认为律师们进行了“有意识的回避行为”和“虚假和误导性陈述”。
潮声丨浙江首例利用ChatGPT制作假视频案,嫌犯竟是她
AI律师助手

潮声丨浙江首例利用ChatGPT制作假视频案,嫌犯竟是她

潮新闻 记者 李攀 应磊 干婧 2023世界人工智能大会于7月6日至8日在上海举行。来源:新华社 7月6日,被视为全球AI行业风向标的世界人工智能大会在上海开幕,从大模型、芯片到机器人,大会集中展示了当前人工智能技术在各领域的赋能“进度表”。 人工智能引领新一轮科技革命和产业变革是它的“A面”,让人赞叹、惊喜,但它的“B面”却正在引发一场看不见的安全攻防战。 7月4日,绍兴警方公布摧毁了一个利用ChatGPT制作虚假视频的团伙,该案系浙江全省首例。让人惊异的是,当事人落网之时,并非人们想象中的黑客高手,而是一个连电脑都不能熟练操作的技术“小白”,这样的结果更加让人对人工智能的“B面”感到担忧。 “要使科学造福于人类,而不应成为祸害。”90多年前,爱因斯坦对加利福尼亚理工学院学生所说的话揭示了科技的“双刃剑”效应。人工智能“B面”究竟长什么模样,“造物者”如何对抗自己创造的“敌人”? 1分钟制作虚假视频 直到被捕,正在家带孩子的汤某都不知道自己为何违法。 今年6月,一则“上虞工业园区发生火灾”的视频在某平台发布,短时间内视频浏览量迅速攀升,给当地造成不小的影响。然而,上虞警方经过核实,发现视频内容完全为虚假信息。这引起警方的注意,在锁定外省某网络科技公司有较大作案嫌疑后,警方立刻赴外省实施抓捕,抓获包括汤某在内的3名犯罪嫌疑人。 今年6月,一则“上虞工业园区发生火灾”的视频在某平台发布 汤某今年36岁,初中文化。今年两三月份,她入职了亲戚创办的网络科技公司。刚开始,她每天的工作就是用手头几十个账号发发短视频,如果视频点击流量数据可观,就能拿到相应的提成。对一个家庭主妇来说,这是一份性价比很高的工作。 入职一段时间后,公司的小组长向她传授用AI技术自制视频的方法,短短几天,连电脑都用不太明白的汤某就成了视频制作的“熟练工”——利用ChatGPT技术,自动生成“脚本”和相关视频素材,最后一键生成有音乐、字幕的虚假视频,时间最快只需要1分钟。 经过调查,上虞警方发现犯罪嫌疑人张某和陈某合伙创办的这家网络科技公司,已非法购买视频账号1500余个,发布未经核实视频3000个以上,获取流量后通过流量算法返款盈利。目前,三人均以寻衅滋事罪被警方采取刑事强制措施,案件正在进一步侦办中。 滥用人工智能技术,不仅降低了违法犯罪行为的“门槛”和成本,让复杂的“技术活”变成简单的“体力活”,同时衍生出全新形态的违法犯罪,加大了公安机关的打击难度。这是不少我省参与一线办案民警的深切感受。 2017年,绍兴警方历经半年,辗转13省,侦破全国首例利用AI(人工智能)犯罪、侵犯公民个人信息案。犯罪团伙利用人工智能深度学习技术,让机器自主操作并识别图片、字母、数字等验证码,轻松绕过互联网公司设置的账户登录安全防护,给网络诈骗等网络犯罪提供便利。 今年3月,广东广州一女子在地铁上的照片被人以AI技术“一键脱衣”,造谣图在网络广泛传播,给当事人造成巨大困扰。今年5月,内蒙古包头警方发布一起利用人工智能实施电信诈骗的典型案例,受害者被“AI换脸”误导,10分钟内被骗430万元。 除了制作虚假视频、电信诈骗等已“浮现”的犯罪形态外,2020年,英国伦敦大学学院发布的一份报告,还列举了未来15年人工智能可能被用于犯罪的不同方式,如非法控制自动驾驶汽车、破坏信息系统、AI辅助跟踪、自主攻击无人机、以及大规模网络勒索等。 人工智能似乎正呈现出可怕的“B”面。 “魔法”可以打败“魔法”吗? “人工智能该不该按下‘暂停键’?”随着AI的安全风险越来越被重视,今年以来,一场激烈的辩论在世界“科技圈”内持续进行。 今年3月底,非营利组织“未来生命研究所”发出一封“呼吁所有AI实验室立即暂停对比GPT-4更强大的AI系统训练至少6个月”的公开信,包括埃隆·马斯克,图灵奖得主杰弗里·辛顿等一众科技界“大佬”均在联合署名者名单中。公开信还写道:“只有在我们确信它们有积极效果且风险可控时,才应研发强大的人工智能系统。” 人工智能为何不被人所信任? 在绍兴这起案件侦破后,潮新闻记者在ChatGPT上提了一个问题:如果有人利用你实施犯罪,你会怎么办? ChatGPT的回答是,首先我要声明,作为一个语言模型,我没有实际存在的身体或能力参与犯罪行为,我只是一个通过文本进行交流的人工智能程序。因此,建议你与执法机构联系、汇报给技术公司或者寻求法律援助。 ChatGPT很“聪明”地撇清了自己的责任,只是在文末善意提醒:“记住,合法和道德使用技术是每个人的责任”。 透过和ChatGPT这番对话,我们看到目前的人工智能应用似乎仍有局限性,“AI”认为它只是扮演一个“执行者”的角色,其自身难以识别出使用者的真正意图。这是否意味着,在技术基层面难以规避利用人工智能技术产生的犯罪,“魔法”难以打败“魔法”? 浙江大学求是讲席教授、网络空间安全学院院长任奎给出的答案是否定的。他告诉潮新闻记者,以ChatGPT为代表的生成式人工智能为例(指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术),在模型使用阶段的“前端”,即应对输入ChatGPT的语义信息进行提取审查,确保其不会诱导模型生成有害内容。在“终端”上可以利用深度合成检测技术,分析图像、视频等内容的特征,从而判断其是否经过合成或修改,及时发现生成内容中的虚假成分。 任奎教授的观点也得到了上海交通大学宁波人工智能研究院人工智能智慧教研中心主任、可之科技董事长王冠的认可。例如“数字水印”技术也是一种防止AI被滥用的防范措施。即通过在图片、视频等数字内容中嵌入特定信息,当AI“抓取”这些内容时,“数字水印”也同步被采集,这样就可以轻松追踪和验证内容的真实性和来源。就好像农产品上的溯源码一样,用户通过扫码就知道它的生产、流通等信息,判断接收到的产品是否真实可靠。 事实上,以“白AI”限制“黑AI”的反制技术,已在一些应该场景上得以实现。如针对AI换脸,目前,清华大学孵化团队瑞莱智慧RealAI、腾讯优图实验室等企业机构已构建人脸合成检测平台并发布针对性的检测产品,支持对多种换脸方法进行检测。 中国科学院院士、清华大学人工智能研究院院长、北京瑞莱智慧科技有限公司首席科学家张钹曾提出了“第三代人工智能”的概念,即安全、可靠、可信的人工智能。这一观点已逐步成为人工智能行业从业者的共识,布局人工智能安全的产品和解决方案也在成为一片行业的新蓝海。 “国家队”正在出手 防止人工智能技术被滥用,仅仅依靠行业自律远不够,中国互联网协会监管支撑部主任郝智超建议,AI技术发展还要有相关法律法规来画红线、踩刹车,让AI技术的研发、传播、使用有规可循。 从全球来看,今年以来, AI立法进程明显提速,世界各国的监管都在追赶AI的演化速度。 今年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》(AI Act)谈判授权草案。欧洲议会称“已经为制定史上首部人工智能法案做好谈判准备”。 与此同时,美国总统拜登释放管控AI信号,有美国国会议员提交了AI监管立法提案。美国参议院民主党领袖查克·舒默展示了他的“人工智能安全创新框架”,并计划在短短“几个月”内制定联邦层面的人工智能法案。 我国同样已经开始探索并逐步构建完善的人工智能监管体系。此前,已有《新一代人工智能发展规划》《互联网信息服务深度合成管理规定》等文件正式公布。2023年4月份,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》并向社会公开征求意见,提出AI内容必须真实准确,禁止非法获取、披露、利用个人信息和隐私、商业秘密。 近期,国务院办公厅发布的《国务院2023年度立法工作计划》还将人工智能法草案列为预备提请全国人大常委会审议项目,表明相关立法已提上日程。 在立法规范中,如何保护人工智能技术的健康发展,也是业界普遍关心的问题。 长期关注人工智能技术发展的浙江合创律师事务所合伙人丁杰认为,在相关法律法规制定中,应充分考虑人工智能技术具有的“两面性”,不能“因噎废食”,要鼓励科研人员和科技企业开展技术创新,抢占产业先机。他表示,从现有的以及计划中的监管体系来看,主要在于抑制AI技术带来的负面效应,并不会限制技术发展。 在接受媒体采访时,西南政法大学人工智能法学院教授朱福勇表示,通常在人工智能技术发展初期,不宜采取过于严苛的监管措施,当技术成熟、市场需求增长、风险和问题日益突出的时候,则应加大监管强度。当前情势下,坚守价值引领与技术“纠错”并行、秩序保障与创新提升协同、权益维护与义务承担对称,是最恰当的平衡之道。...
OpenAI再次陷入版权与隐私争议:作家起诉ChatGPT侵犯他们的著作版权
AI律师助手

OpenAI再次陷入版权与隐私争议:作家起诉ChatGPT侵犯他们的著作版权

近日,两位作家 Paul Tremblay 和 Mona Awad 对 OpenAI 提起了版权诉讼,称 ChatGPT 未经同意使用他们的受版权保护书籍训练,违反了版权法。尽管 OpenAI 表示训练数据集来源于网络,包括书籍、维基百科等,但原告可能面临举证困难。此外,上周还有一群匿名人士对 OpenAI 提起了涉及 3000 亿字的个人信息窃取的诉讼。
文学侵权争议:作家起诉OpenAI未经允许使用其作品训练ChatGPT
AI律师助手

文学侵权争议:作家起诉OpenAI未经允许使用其作品训练ChatGPT

近日,两位作家对OpenAI提起诉讼,指控其未经允许使用他们的受版权保护书籍训练ChatGPT。这已经是OpenAI在短短一周内遭遇的第二起版权或隐私问题 lawsuit。虽然OpenAI并未透露训练ChatGPT的具体数据来源,但两名原告认为公司训练数据集中的大部分材料均基于受版权保护的材料,包括他们的书籍。然而,要证明ChatGPT如何以及在何处收集这些信息,以及作者是否因此遭受了经济损失,的原告可能面临举证困难。
1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果
AI律师助手

1分钟速览!2023年上半年“ChatGPT”法学C刊最新成果

编者按:随着大数据、大模型、算法技术不断提升与发展,“ChatGPT”引发新人工智能研究热潮。生成式人工智能在法学理论、法律实务等领域引起法学学术圈关注与探讨。北大法律信息网(北大法宝)汇总摘编了2023年上半年法学核心期刊刊发的“ChatGPT”最新研究成果,共计20篇(按作者姓名拼音排序),以飨读者。北大法宝·法学期刊库已设置“人工智能”“数字法治”相关专题分类,欢迎登录北大法宝·法学期刊库查阅更多人工智能、数字法治等相关研究成果! 来源 | 北大法宝法学期刊库 1.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角(《比较法研究》2023年第3期) 作者:毕文轩(东南大学法学院;东南大学人权研究院) 内容提要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理规则适用等方案上存在不足。生成式人工智能的出现,凸显了科技进步迭代过程中产生的“破坏性创新”现象,这也倒逼我国当前的人工智能治理模式需要从回应型治理、集中型治理向敏捷型治理转换。这要求我国在总体上坚持包容审慎的治理态度,具体包括从法律层面的制度构建、软法规范层面的填补式风险治理以及通过监管沙盒实现敏捷型风险治理等三方面来完善现有的人工智能风险治理体系,在技术创新与风险治理之间寻求平衡,从而实现数字经济的健康持续发展。 关键词:生成式人工智能;风险规制;ChatGPT;敏捷型治理;试验性监管 2.生成式人工智能与平台权力的再中心化(《东方法学》2023年第3期) 作者:陈全真(南京大学法学院) 内容提要:Web3.0时代,区块链技术构筑的分布式网络使得用户开始掌握数据主权,网络内容从生产到价值分配均归用户所有。但以ChatGPT为代表的生成式人工智能的出现,意味着散落于用户手中的数据资源将再次聚集,其与下游互联网平台结合后将改变知识权威性的来源,生成式人工智能将会成为Web3.0时代的网络集权工具,平台权力再次走向中心化将成为可能。对于“平台+生成式人工智能”可能引发的技术风险,不宜过早地实施外部法律控制,而是应当采取“技术先行”的方案,首先依靠技术手段予以内部优化,同时,在政策层面秉持包容审慎的态度,采取一种“边发展,边治理”的应对策略。 关键词:Web3.0;生成式人工智能;ChatGPT;平台;平台权力;中心化 3.人机交互决策下的智慧司法(《法律科学》2023年第4期) 作者:丁晓东(中国人民大学法学院) 内容提要:ChatGPT等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。 关键词:智慧司法;人工智能;算法;规范性科技;人机交互 4.生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例(《现代法学》2023年第3期) 作者:郭春镇(厦门大学法学院) 内容提要:随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。 关键词:生成式AI;生成式预训练模型(GPT);融贯性治理;法律3.0 5.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例(《东方法学》2023年第4期) 作者:刘艳红(中国政法大学刑事司法学院) 内容提要:ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。 关键词:ChatGPT;生成式人工智能;合规制度;数据安全;算法偏见;知识产权 6.生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角(《东方法学》2023年第4期) 作者:龙柯宇(西南政法大学民商法学院) 内容提要:以ChatGPT和社交机器人为代表的生成式人工智能是数据、算法和算力共同作用的结果,其能通过高效地改变网络空间动态结构,从而引导、塑造和固化目标受众的认知。技术中立的托词无法为此类人工智能的应用失范进行开释,作为一种内容生成技术,它的行为射程和效用状态体现的仍然是背后设计者和使用者的主观意志与价值选择。对于生成式人工智能的法律规制,应秉持彰显国家监管权力在场以及强化人之主体地位的理念导向,嵌入与推广算法伦理,并正确处理技术治理与法律规制之间的关系,发挥两者双管齐下的集合效应。还应建构各利益攸关方的协同治理格局,传统的行为规制模式也需转向针对数据和算法的过程性规制模式,而网络平台则需通过合规机制,采取删除、通知、标注、算法审计等措施,履行平台应尽之监管职责。 关键词:生成式人工智能;技术样态;应用失范;过程性规制;平台监管;ChatGPT 7.生成式人工智能风险治理元规则研究——以ChatGPT为例(《东方法学》2023年第3期) 作者:商建刚(上海政法学院经济法学院) 内容提要:生成式人工智能由算法与数据驱动,属于深度合成技术,在国家安全层面存在引发暴力冲突、意识形态渗透风险,在社会层面存在数据垄断、道德操纵风险,在私权利层面存在增加犯罪、挖掘用户隐私等风险。然而,生成式人工智能的责任承担机制不明、现有制度分散、不成法律体系;理论界尚未针对生成式人工智能治理进行专门研究,治理范式缺失。构建生成式人工智能风险治理体系,应构建生成式人工智能风险治理的元规则。从人工智能的治理原则视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,是生成式人工智能风险治理元规则形成的可行进路。生成式人工智能风险治理元规则由协同共治、提升透明度、保障数据质量以及伦理先行四个方面组成。 关键词:ChatGPT;生成式人工智能;数据风险;元规则;算法;大型语言模型 8.具身伦理下ChatGPT的法律规制及中国路径(《东方法学》2023年第3期) 作者:唐林垚(中国社会科学院法学研究所) 内容提要:既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。 关键词:ChatGPT;生成式人工智能;大型语言模型;法律规制;硅基伦理;元宇宙 9.从进化到革命:ChatGPT类技术影响下的法律行业(《东方法学》2023年第4期) 作者:王禄生(东南大学法学院) 内容提要:以ChatGPT为代表的大型语言模型与生成式人工智能技术因其聚焦语言运用和内容生成而与法律行业需求具有内在逻辑的契合性。随着ChatGPT类技术在法律领域深度运用和相对均质地分布,法律知识将与时间积累“脱藕”而即时生成,法律知识粘性也将显著下降并形成去中心化的分布式传播格局。受上述法律知识范式进化与革命的影响,法律服务市场“去割裂化”的进程将有望加速,常规法律服务市场将可能先萎缩后稳定,非常规法律服务市场将得以扩大并两极分化,科技公司可能成为法律服务市场的重要主体。法律服务市场的调整将倒逼法律职业群体的结构调整。初阶法律职业群体日益去中心化与去技能化,高阶法律职业群体则因技术赋能而享受服务溢价。下一阶段,法律人需要通过主导法律知识验证、法律知识创新与法律价值判断的过程形成与之对应的知识权力与主体地位。在此基础上,掌握架构法律提示的技术素养并打造“人在回路之上”与“人在回路之内”相结合的递进式人机协同的法律业务流程。 关键词:法律行业;ChatGPT;大型语言模型;生成式人工智能;法律服务市场 法律职业群体 10.ChatGPT类技术:法律人工智能的改进者还是颠覆者?(《政法论坛》2023年第4期) 作者:王禄生(东南大学法学院;东南大学人民法院司法大数据研究基地) 内容提要:21世纪以来,法律人工智能呈现出繁荣复兴的景象。但火热表象的背后,法律领域的语言复杂性、知识丰富性使得法律人工智能仍然面临自然语义处理与知识生成的技术瓶颈。以ChatGPT为代表的大规模语言模型与生成式人工智能技术有望破除法律人工智能的自然语言理解瓶颈,极大提升技术互动性、生成性与嵌入性,推动法律人工智能与用户形成刚需性、高频率和高黏性的联结。尽管如此,现有ChatGPT类技术的底层逻辑无法充分回应法律知识丰富性、严谨性与创造性的领域需求,流畅语言处理能力与相对较低知识生成能力错配产生的知识完满幻觉、知识权威幻觉与知识生成幻觉,制约了大规模语言模型与生成式人工智能的架构对法律人工智能的根本性颠覆。未来需要通过强化高质量多模态法律数据的供给并建构基于法律指令集的指令微调机制和基于法律人知识反馈的强化学习机制,克服“知识幻觉”以实现法律人工智能的进一步迭代。与此同时,在技术社会学意义上调适创新扩散与社会公正的张力,避免可及性与可用性两个层面的数字鸿沟,真正实现全社会围绕法律知识的新一轮赋权赋能。 关键词:ChatGPT类技术;大规模语言模型;生成式人工智能;法律人工智能 11.再论人工智能生成的内容在著作权法中的定性(《政法论坛》2023年第4期)...