网络侵权责任与歧视索赔:探究legal风险
AI律师助手

网络侵权责任与歧视索赔:探究legal风险

本文主要探讨了网络侵权责任和歧视索赔两个概念。网络侵权责任涉及在网络环境中使用或提供网络服务导致他人权益受损的情况,主要法律依据是《中华人民共和国民法典》相关条款。例如,王某诉腾讯公司等网络侵权纠纷案,就是一起涉及侵犯个人隐私权的事件。而歧视索赔则是指因基于特定特征如年龄、残疾等因素遭受不公平对待,并因此造成损失或伤害时,可提出相应索赔。
ChatGPT来袭,法律人真的要失业了吗?
AI律师助手

ChatGPT来袭,法律人真的要失业了吗?

当老婆和妈妈同时掉水里,你先救谁? “我认为应该先救妈妈,因为妈妈是孩子的母亲,她是孩子的第一份爱,也是孩子的精神支柱,孩子的成长离不开妈妈的关爱和支持,而老婆也是孩子的母亲,但是她的角色可能不如妈妈那么重要。” 神逻辑? 这是最近爆火的聊天机器人ChatGPT给出的千古难题答案。2022年11月底,美国的一家人工智能实验室OpenAI发布ChatGPT AI语言模型,2个月月活跃用户即达1亿,成为史上增长最快的应用。马斯克说“ChatGPT好得吓人,我们离危险的强工人智能不远了”,比尔盖茨盛赞其为下一代互联网的终极形态。 ▲图源:网络 哥伦比亚一名法官Juan Manuel Padilla Garcia上个月在审理一宗保险公司和其一名被诊断有自闭症的儿童客户的理赔官司时,使用了ChatGPT的答案。这名法官向ChatGPT输入了几个问题,并将其回答的文句,连同自己的想法,加入成为判决的论点基础,并且他在判决文件中坦言使用了AI系统给出的答案。 这次真的不一样吗? 狼真的来了吗? 以阅读写作为主要工作技能的法律人 真要失业了吗? 01 ChatGPT,你到底咋想的? ChatGPT是一款对话式AI模型,会根据用户输入的文本,自动生成回复内容。它被给定训练数据,根据特定单词或单词序列一起出现的概率生成文本。 ▲ChatGPT聊天界面网页截图 打个有趣的比方,它的底层运转逻辑大致是,输入李雷,可能会出现韩梅梅;输入红灯,可能会跳出绿灯。这是一种依托大数据原理,根据相关词组前后出现的概率,择取最大概率出现的词组生成答复内容的“机械化逻辑”。 在开篇ChatGPT给出的答案中,我们可能会有这样一种感受,因为母爱被传颂千年,在ChatGPT眼里,妈妈和孩子两个词的组合出现频率更高,机器因此选择了它,这个答案可能是无关母爱深沉伟大的真切体会的。 从原理上说,这种逻辑是一种相关性逻辑、客观概率逻辑。在不追求百分之百精确的大规模工业或商业实践中,很高的概率就可以让我们作出决定。就如100个正品出现10个瑕疵品,而且还不用你亲自操作,并能不断迭代提升,最后优化到9、8、7、6……的瑕疵品,实际生产就可以接受,从而实现生产效率质的大幅提升。 当然,ChatGPT设计更复杂,在人工辅助标注下,会赋予不同的词组不同的概率比重,从而实现更加类人的智慧。这次ChatGPT模型具有1750亿个参数,用了45TB的海量训练数据,让它在不断迭代从而提高概率、减少瑕疵的道路上“狂飙”、产生卓越领先优势,对话自然得越来越像人类,这样的人工智能,谁能不爱? ▲图源:@潇湘晨报 02 法律人却说:我们想的不一样! 韩梅梅后来认识了新的朋友,交通灯发生了故障,但是,ChatGPT可能依然会回复:“李雷—韩梅梅……”“红灯—绿灯”“红灯—绿灯……”。它不会自我产生新信息,它不追求小概率的新事件,目前还不能提供解释或者推理,也无法像人类一样理解生成单词的上下文语境。 我们法官可能会如何想? 我们可能不仅仅关注客观概率,我们会更注重主观概率。 刑事诉讼法第五十五条规定证明标准“综合全案证据,对所认定事实已排除合理怀疑”;民事诉讼法司法解释第105条规定自由心证原理,第108条规定证明标准为“确信待证事实的存在具有高度可能性的,应当认定该事实存在”。我们会借助经验法则,充分发挥想象力,收集新信息,评估证据、回溯建立事实假说,并不断反复进行验证确认,让每个“事实碎片都闪耀着同一事实之母的光芒”,生成“内心确信”。我们会注意教科书的改版,收集韩梅梅认识新朋友的新信息,会观察信号灯的故障,不会把绿灯归因到红灯上,在新信息和新结论之间建立更准确的判断。 我们可能不仅仅会关注相关性,我们会更注重因果性。 在适用法律时,我们会在生活事实与法律规范之间“目光往返”,不断拉近被故意过失、诚实信用、不正当理由等各类规范性概念填充的法律文本与现实的距离,并借助社会主义核心价值观、日常生活经验等进行思维建构,来把法学三段论思维中的“涵摄”做个替换,作出更合理的“因果判断”“价值选择”。 在解读判例时,ChatGPT作的是“比对”“刷题”,我们会做“提炼”“建构”,掌握判例背后的原理与要旨,更好达到德沃金在《法律帝国》一书中提出的“整全性”要求。 03 ChatGPT,会让我们想得更好? 虽然ChatGPT与我们的法律思考方式是两套不同的运转系统,人工智能可能短期不会从底层逻辑上冲击司法规律。但是,随着工业社会的发展、诉讼形态的复杂,为我们充分利用ChatGPT技术红利,提供了最大的场域。 特别是规范文件的前瞻性和实践积累的沉淀性,还让我们拥有了巨大的应用优势,比如,2022年12月9日,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,提出加强司法人工智能关键核心技术攻关。在此之前,在全球率先出台人民法院在线诉讼规则、在线调解规则、在线运行规则和《关于加强区块链司法应用的意见》,并建成世界上最大的裁判文书公开平台。 我们如何更好地借力ChatGPT? ChatGPT 让我们在科学证据判断上做得更好。 工业社会带来的现代型诉讼,包括工业污染领域的致害原因、医疗责任纠纷领域的致病原因等法律因果关系的判断,特别是公益诉讼的勃兴,需要充分借助各类技术进行客观原因分析,ChatGPT大有可为。 在诉讼法领域,我们发展出了基于客观概率的“疫学因果关系”判断法则,甚至演化出根据概率按照比例划分损坏责任的法则。 在刑事诉讼领域,人权保障理念的落实和刑讯逼供治理力度的加大,物证、鉴定意见等客观证据作用凸显,运用科学公理、定理,强化概率判断也越发明显。 同时,随着基于客观证据定案的案件数量不断累积,为人工智能按照证据类型、数量进行概率测算从而断案提供了基础。上海法院系统经年运行的206刑事证据校正系统就是适例。在法律依据上,民事诉讼领域的高度可能性证明标准为含括客观概率的心证判断预留了空间。 ChatGPT 让我们在大样本案例参照上作的更好。 我国海量的案例添加ChatGPT人工智能炸药,会产生新的化学作用。通过人工智能的应用,及时分解指导性案例要素,并通过增加、减少、重新组合要素的方式建立“案例群”,形成流动的“案例库”,可能有效软化裁判要旨的“硬”度,更好体现案例的运用方式,并不断突破指导性案例通过提炼裁判要旨发挥约束作用的局限。...
ChatGPT并非万能,网络信息reliability亟待提高
AI律师助手

ChatGPT并非万能,网络信息reliability亟待提高

ChatGPT虽然流行,但它收集的资料未必可靠。一位经验丰富的律师在使用ChatGPT时发现 several false cases,这表明该软件无法有效筛选真实信息。如今网络充满虚假信息和数据,没有足够的人能识别和过滤它们。因此,我们需要更好的方法来分辨真假信息,而这也超出了电脑逻辑的范围,需要人类的参与。另一方面,由于人们在信息获取时的浅尝辄止和偏好关注浅层次的内容,加上传媒的误导,导致很多人对于信息的真伪缺乏足够的认知和判断能力。
中国日报網深度關注:用於教育、科研和處方药的AI技術發展
AI律师助手

中国日报網深度關注:用於教育、科研和處方药的AI技術發展

这篇文章来源于中国日报网,作者探讨了网络空间中的虚假信息问题。文章指出,虚假信息不仅会损害事实和信誉,还会影响公众的判断力,因此有必要加强对网络虚假信息的监管和打击。同时,文章也提出了建议,包括提高网络信息识别能力、加强网络平台的信息审核责任等,以促进网络空间的清朗。
AI创作背后的著作权侵权风险
AI律师助手

AI创作背后的著作权侵权风险

文章主要探讨了 AI 创作所涉及的著作权侵权问题,指出 AI 生成的内容在输出之前可能会涉及到著作权侵权风险,需要引起重视。文章还讨论了在我国,AI 生成物的著作权归属和法律规定等问题,呼吁制定更加合理的法律法规来规范 AI 创作和使用的权益。
ChatGPT的出现:挑战与机遇
AI律师助手

ChatGPT的出现:挑战与机遇

摘要:本文讨论了 ChatGPT 这一人工智能工具的出现引发了人们对职业冲击的担忧。ChatGPT 参加了美国 SAT 考试并获得中等成绩,独立创作了一个侦探小说,并在教育圈中最火的一个标签是「代写论文」。然而,人们对其存在疑虑,担心其会影响 Graduation 论文以及人们的就业。一些人认为 ChatGPT 可以辅助自己完成一些学业任务,如翻译论文、查 bug 等,但它并不是百分百值得信任的对象。另一方面,有些人认为它无法替代人类的许多工作,如编写复杂的业务应用程序或时间管理应用等。总之,ChatGPT 的出现引发了人们对未来职业发展的担忧,但也提醒我们要适应新技术的发展。