过去一年,ChatGPT吃了多少官司?
AI律师助手

过去一年,ChatGPT吃了多少官司?

ChatGPT,又吃官司了。 2024年元旦前夕,ChatGPT遭到美国《纽约时报》的诉讼,指控这两家公司未经授权,将数百万篇时报文章用于训练ChatGPT和微软Copilot聊天机器人。 微软是OpenAI的最大股东,自2019年双方合作以来,微软至少向OpenAI投资了130亿美元。 据此,《纽约时报》要求OpenAI和微软删除任何包含其版权材料的训练数据,并称侵权行为可能造成了数以十亿美元计的法定和实际损失。 稍显讽刺的是,在2023年初ChatGPT风靡之际,《纽约时报》一度表示,ChatGPT是“有史以来最好的面向大众的人工智能聊天机器人”。 作为第一家起诉OpenAI和微软的美国大型媒体机构,《纽约时报》无疑扣动了关于版权之争的扳机,甚至有人认为可能成为AI侵权的里程碑式案件。 OpenAI发言人对此回应称,希望能找到一种互利的合作方式,就像与许多其他出版商所做的那样。 显然,OpenAI不想和包括《纽约时报》在内的媒体机构闹翻。 刚刚过去的2023年,ChatGPT成了全球最火爆的新生事物,也伴随着最多的争议。 毕竟靠着ChatGPT产品的强劲增长,OpenAI最新的年化收入已经超过了16亿美元。据OpenAI内部预测,2024年的收入有可能接着翻几番达到50亿美元。 但是,过去一年,ChatGPT吃的官司,远比想象中多得多。 从作家到律师,再到被收集个人信息的普通人,ChatGPT不断引来各种法律纠纷。围绕ChatGPT生成的内容,也是争议重重。 屡屡“吃官司”的ChatGPT 纵观去年至今一年来ChatGPT所遭遇的法律纠纷,大致可以分为三类,即侵犯版权、侵犯个人隐私、造谣或传播虚假信息。 就在《纽约时报》将OpenAI和微软告上法庭的前几天,11位美国作家在曼哈顿联邦法院提起诉讼,指控OpenAI和微软滥用自己所著的书籍来训练ChatGPT,而这样的行为无疑是在“刮取”作家们的作品和其他受版权保护的材料。他们希望获得经济赔偿,并要求OpenAI和微软停止侵犯作家们的版权。 更早之前的2023年9月,包括《冰与火之歌》作者乔治·马丁在内的17位作家向美国纽约联邦法院提起诉讼,指控OpenAI“大规模、系统性地盗窃”,公然侵犯了作家们登记在册的版权。 此次诉讼的组织者美国作家协会控诉,这些作者的作品从盗版电子书库中被下载后,又被复制到了ChatGPT中,由此OpenAI能从中获利数十亿美元。 “我们必须阻止这种盗窃行为。为了保护文学,作家必须限制AI能否与如何使用他们的作品。”美国作家协会CEO玛丽·拉森伯格在一份声明中说。 除了侵犯版权,ChatGPT还曾因“抓取”个人数据而遭到集体诉讼。 2023年6月,有16名匿名人士向美国加利福尼亚旧金山联邦法院提起诉讼,称ChatGPT在没有充分通知用户,或获得同意的情况下,收集和泄露了他们的个人信息。 具体来看,原告指控两家公司通过其AI产品“收集、存储、跟踪、共享和披露”数百万人的个人信息,包括产品详细信息、账户信息、姓名、联系方式、电子邮件等。 据此,他们要求微软和OpenAI赔偿30亿美元。 ChatGPT的另一宗“罪”,是涉嫌造谣及传播虚假信息。用时下流行的话来说,就是“一本正经地胡说八道”。 在美国近来的一起诉讼案件中,一名律师帮原告打官司,却靠ChatGPT来帮忙,一口气在辩护词中引用了6个ChatGPT提供的案例。这些案件均配有大段引文,原告与被告公司之间的恩怨情仇也写得清清楚楚。 结果法院在审理时发现,这些案件根本不存在,而是该律师求助的ChatGPT所捏造出来的。 “我很后悔自己依赖ChatGPT。我不知道它给的内容可能是假的。”这名从业30年的律师忏悔道。 很显然,这与ChatGPT的智能水平有关系,当遇到“没学过”的领域时,就会发生种种令人啼笑皆非的“翻车”现象。 ChatGPT有多智能? 自2022年11月上线以来,ChatGPT便风靡全球。 具体到个体,已经有人对ChatGPT的智能化水平从“兴奋”变成了“惊恐”。 据OpenAI此前公布的成绩显示,GPT-4非常善于参加标准化考试。 在没有进行培训的情况下,在模拟律师资格考试、SAT阅读考试和SAT数学考试中都位列前10%。 借助ChatGPT,有程序员将软件开发周期从8-10周缩短至不到一周。 有艺术家宣布,他在9个月内用AI创作并出版了97本书,净赚2000美元。 据美国佛罗里达金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,投资回报率甚至可以达到500%,堪称AI界的巴菲特。 Steven是一名大厂员工,某种程度上,ChatGPT已经成为了他的重要参谋。“无论是做方案还是汇报,我都会先听听ChatGPT的意见,这给了我很多灵感。”Steven对《凤凰WEEKLY财经》表示。 ChatGPT的效用不仅发挥在工作中,在生活中,他还曾让ChatGPT扮演一名幼儿教师与他5岁的孩子对话,一问一答之间,这场对话居然持续了40分钟。“超出意料,ChatGPT还可以帮忙带孩子了。”Steven感慨道。 这也印证了一些科学家的发现:GPT-4具有比以前更明显的机器觉醒迹象。 OpenAI联合创始人GregBrockman直播演示GPT-4 但如果说ChatGPT现在就能令人类感到“惊恐”,显然也是杞人忧天。 2023年12月28日,香港城市大学数据科学学院讲座教授祝建华在北京师范大学新闻传播学院举办的《人工智能与未来媒体大讲堂》上表示,对ChatGPT的能力应“谨慎看待”。 他认为,ChatGPT的理解能力和再现能力非常强,已经达到和大部分人能力相等的程度。 同时,ChatGPT也具备一定的创新能力和推理能力,只是目前还比较弱。至于情感能力和自主意识,应该是没有的。 这也带来了一个好消息和一个坏消息。“好消息是,人类可以从低等、重复、繁重的生产过程中解脱出来。坏消息是,我们的很多工作就会被机器代替。更坏的是,智能中必然会包含自主意识,到时候机器可能就会赶超人,消灭人。当然,如果现在或将来都无法通过图灵测试(一种测试机器人是否具备人类智能的方法),那意味着机器只能做一些简单的工作,对人类的威胁也就解除了。”祝建华进一步解释称。 最新的趋势是,GPT-4大模型有“变懒”的迹象。越来越多的用户在社交网站上抱怨,GPT-4有时只给出问题的一半答案,剩下的一半要求用户自行完成。 此前OpenAI官方也承认,GPT-4模型在11月11日后就没有更新维护过,不过拒绝透露这是否和公司的人事变动有关。...
肖飒团队 | 北互首案揭秘:AI换脸侵权风波,法律如何定夺?
AI律师助手

肖飒团队 | 北互首案揭秘:AI换脸侵权风波,法律如何定夺?

“AI换脸”到底是侵害了肖像权还是侵害了其他权益?北京互联网法院“AI换脸侵权第一案”给出了明确答案:网络服务提供者未经他人允许,使用他人短视频制作成“AI换脸模板”供用户使用的,并不侵害权利人的肖像权,但侵害了权利人的个人信息权益。 北京互联网法院通过该判决第一次明确了“AI换脸”侵权的实务争议,在肖像权侵权之争和个人信息权益侵权之争中,北互选择了后者。 01 基本案情 本案原告系国内著名短视频模特,原告打造的“国风小姐姐”风格短视频在全网拥有众多粉丝。本案被告则是一款“AI换脸App”的运营者。被告App中向用户提供“一键AI换脸”功能,并为用户提供了数个用于换脸的形象模板。原告在某短视频中的形象也在被告提供的形象模板中。 具体而言,用户在该款App中可以上传自己的照片,用户的照片经过AI处理后会提取面部特征。用户可以选择将自己的“脸”(提取的面部特征)贴在App提供的形象模板上,且该App可允许用户将“换脸”后的照片下载导入到手机相册中。整个过程用户需要向App支付一定的费用。 本案原告主张,在未经其授权同意的情况下,该涉案App的运营者使用原告的出镜视频制作供用户付费使用的换脸模板,以此谋取非法利益。基于此原告认为被告侵犯了原告的肖像权及个人信息权益,要求被告赔礼道歉、赔偿精神损失和经济损失。 02 案件焦点 该案诡谲之处有二: 其一,用作“AI换脸模板”形象模板的原本面部其实并非原告的面部。具体而言,原告仅仅是根据被告App中供用户进行换脸的形象模板的动作、体态、服饰、发型、灯光等特征认定该模板来自自己拍摄的短视频中的形象。这也是被告抗辩的重要一环:“形象模板”中的人物虽然在动作、体态、服饰、发型等特征上和原告短视频中的人物一致,但其面部却并非原告面部,既然面部特征并非原告,那么怎么能说侵害了原告的肖像权呢? 其二,实际上,被告App中的AI换脸服务并非“原生”,而是接入了第三方的技术,换言之,既然AI换脸技术由第三方提供,那么整个过程中被告实际上没有处理原告的人脸信息,这又怎么侵害了原告的个人信息权益呢? 03 法院判决 针对肖像权侵权之争,北京互联网法院支持了被告的抗辩主张。法院认为,用于AI换脸的形象模板不具有肖像意义上的识别性。具体而言,侵犯肖像权的前提,是涉嫌侵权的形象要存在识别性,能够指向特定的人。 首先,虽然随着技术的发展,肖像权的保护范围不仅仅限于面部,但是仍然遵循“反应特定自然人可以被识别的外部形象”。在本案中,虽然涉案形象模板的动作、体态、服饰、发型、灯光等特征与原告短视频中的形象一致,但最为明显的可识别特征——即形象模板的面部特征则与原告截然不同。而“面部替换”这一行为,实际上已经把形象模板中最具有个人识别特征的核心内容(也可理解为肖像权保护的核心内容)替换掉了。这种替换,已经从根本意义上消解了“动作、体态、服饰、发型”等非核心特征所提供的识别性。因此,涉嫌侵权的形象并不存在指向原告的识别性。 其次,被告并未实施法定的侵害原告肖像权的行为。我国《民法典》规定了侵害肖像权的行为,即未经肖像权人同意,制作、使用、公开肖像权人的肖像,丑化、污损,或者利用信息技术手段伪造他人肖像等。在本案中,被告App中提供的供用户换脸的形象模板,已经去掉了最重要的用于识别原告的特征——原告的人脸,去除了肖像的可识别性,因此更谈不上对肖像进行丑化、污损或伪造。 也正因如此,法院并未支持原告关于被告侵害其肖像权的主张。 相比于肖像权侵权之争,更需引起类似App运营者注意的则是原告另外一项主张——个人信息权益侵权。该主张亦被北京互联网法院支持。法院认为,尽管被告在最终向用户提供的“形象模板”中将原告的面部替换掉了。但不可否认的是被告的确使用了原告的短视频制作形象模板。 在制作形象模板的过程中,被告需要将原告拍摄的短视频中原告的面部替换成他人面部,在这个过程中,被告不可避免地需要对原告的人脸信息进行收集、使用、分析。即便被告辩称使用了案外公司提供的技术服务,但即使如此,被告仍然属于个人信息处理的委托人,决定了信息处理的方式、范围,应就个人信息处理行为承担责任。 此时需要进一步讨论的是,如果原告涉案视频是全网公开的,那么被告通过全网公开的视频获取原告人脸信息,是否属于侵害个人信息权益的行为?对于这一问题,北京互联网法院认为,原告的涉案出警视频虽然属于已经公开的视频,但是原告涉案账号明确标注“未授权给任何收费软件”。也正因如此,不应推定原告同意让他人对其人脸信息进行处理。 基于上述判断,北京互联网法院认为,被告并未侵害原告的肖像权,但由于被告在制作用于AI换脸的形象模板时,不可避免地收集、使用了原告的人脸信息,且未经原告同意,因此被告侵害了原告个人信息权益。 04写在最后 北互“AI换脸”第一案实际上给出了这类争议的处理先例,这其中需要广大AI领域App运营者注意的事情有两个: 第一,委托第三方公司处理个人信息,并不能阻却自身作为个人信息处理的委托人的责任。换言之,不能以“技术是第三方提供的”来主张自己的行为不侵害用户的个人信息权益;第二,AI换脸服务的提供者,即使在最终向用户提供的换脸形象抹去了原权利人的面部特征,但这只能阻却肖像权侵权的责任,阻却不了个人信息权益侵权的问题,因为在这一过程中,App运营者不可避免地会收集、处理面部特征,因此App运营者如果需要制作用于换脸的形象模板,就需要得到该形象模板原权利人的单独同意。 以上就是今天的分享。感恩读者!如果您身边有对新科技、数字经济感兴趣的朋友,欢迎转发给Ta。 获取详细资讯,请联络飒姐团队 【 sa.xiao@dentons.cn】 【 guangtong.gao@dentons.cn】 飒姐工作微信:【 xiaosalawyer】 飒姐工作电话:【 +86 171 8403 4530】
法律顾问AI“嘟嘟”——《家庭教育促进法》对家长提出了哪些要求?
AI律师助手

法律顾问AI“嘟嘟”——《家庭教育促进法》对家长提出了哪些要求?

  法律顾问AI“嘟嘟” 为您解答!   AI   婚姻家事、物权纠纷   劳动用工、侵权损害   未成年保护……   你犯愁的法律难题   统统帮你解答!   AI嘟嘟——   你身边的智能法律顾问!   点击精彩内容   嘟嘟,现在都说已经开启了“依法带娃”的时代,这个《家庭教育促进法》对家长到底提出了什么样的要求啊?   首先,我来跟大家讲一讲《家庭教育促进法》究竟是一部怎样的法律。《中华人民共和国家庭教育促进法》是为了发扬中华民族重视家庭教育的优良传统,引导全社会注重家庭、家教和家风,增进家庭幸福与社会和谐,培养德智体美劳全面发展的社会主义建设者和接班人而制定的法律。   那么,这部法律的主要内容是什么呢?《家庭教育促进法》共 6 章 55条,确立了总则、家庭责任、国家支持、社会协同、法律责任、附则的家庭教育体制。该法明确家庭教育根本任务是立德树人,培育和践行社会主义核心价值观,弘扬中华民族优秀传统文化、革命文化、社会主义先进文化,促进未成年人身心健康成长。这部法律的核心要义就是为家长赋能,因此,《家庭教育促进法》从明确家庭责任、国家支持和社会协同三个角度为家长赋能,让家庭教育更像家庭教育,让家长学会成为家长。家长应自觉承担家庭教育的主体责任,自觉落实家庭教育立德树人的根本任务。   那么,这部法律对家长提出了什么样的要求呢。首先,该法明确,家庭的责任是“以立德树人为根本”,是对孩子在道德品质、身体素质、生活技能、文化修养、行为习惯等方面的培育。同时,也要培育积极健康的家庭文化,为孩子健康成长营造良好的家庭环境。这就对父母或者其他监护人提出了更高要求。   其次,该法要求家长转变观念,促进孩子的全面发展。《家庭教育促进法》规定,应当合理安排孩子学习、休息、娱乐和体育锻炼的时间,避免加重学习负担;帮助树立正确的成才观,引导其培养广泛兴趣爱好、健康审美追求和良好学习习惯等;培养其良好社会公德、法治意识、家国情怀等;帮助树立正确的劳动观念,参加力所能及的劳动,提高生活自理能力和独立生活能力,养成吃苦耐劳的优秀品格和热爱劳动的良好习惯。   第三,该法要求家长自己要加强学习,提高家教能力。《家庭教育促进法》规定,家庭教育应当尊重孩子身心发展规律和个体差异、人格尊严,保护其隐私权和个人信息,保障其合法权益;自觉学习家庭教育知识,在中小学校等重要时段进行有针对性的学习,掌握科学的家庭教育方法,提高家庭教育的能力。可见,父母加强学习,提高家教能力是法律的规定,也是家教的客观需要,包括心理学、法律、育人技巧等内容。当然,家长加强学习,不是为了让父母成为教育专家,而是一种必然的需要。因为,现在科技进步,社会发展,网络发达,开放深入,孩子的民主意识增强,自我意识提升,知识面扩大,父母如果只是靠“家长制”简单粗暴,希望毕其功于一役之类方式无疑事倍功半,甚至适得其反。   最后,该法要求家长要多些亲子陪伴,营造民主家庭。“再不陪伴,我就长大了。”这是孩子的呐喊。《家庭教育促进法》规定,父母应当合理运用以下方式,包括亲自养育,加强亲子陪伴;发挥父母双方的作用;平等交流,予以尊重、理解和鼓励;相互促进,父母与子女共同成长等等。现在独生子女不在少数,没有兄弟姐妹,家长的陪伴就更显必要,何况,父母的陪伴对于孩子来说是不可或缺和替代的。很多没有父母陪伴的孩子,长大后记忆里都有阴影。缺少陪伴,孩子会变得胆小怯懦自卑自闭敏感,容易走极端。孩子的成长只有一次,没有彩排,每天都是现场直播,因此,家长应该多陪伴孩子。同时,应当尊重孩子参与相关家庭事务和发表意见的权利。   “家庭是人生第一所学校、家长才是孩子第一任老师”,随着《家庭教育促进法》的实施,依法带娃照进现实。希望家长们可以树立科学育儿观念,理性看待孩子的成长预期,做到同双减政策之间的双向奔赴。   AI
“AI换脸”惹上官司?你的脸你做主
AI律师助手

“AI换脸”惹上官司?你的脸你做主

朋友圈最近是不是都被各种换脸视频刷屏了? 从明星大咖到隔壁老王,通通都能一键换脸,简直不要太好玩! 但是,你有没有想过, 如果有一天,你的脸也被别人随意换来换去,还被拿去牟利,你会怎么办? 最近,北京互联网法院就审理了两起“AI换脸”软件侵权案件,判决结果让人大!呼!过瘾! 事情是这样的,两位小姐姐,都是网上有名的国风模特,结果她们发现,自己的脸居然被一款“AI换脸”App给盯上了!这款App在未经她们允许的情况下,偷偷把她们的视频做成了换脸模板,还提供给用户付费使用! 这不明摆着是拿她们的脸去赚钱吗?! 法院最后判决,虽然被告的行为没有构成肖像权侵权,但是!侵犯了原告的个人信息权益! 为啥没侵犯肖像权? 因为法院认为,换脸后的视频已经不是小姐姐本人的肖像了,而是变成了其他人,所以不能算是侵犯肖像权。 那为啥又侵犯了个人信息权益呢? 因为被告在未经允许的情况下,擅自收集、使用了小姐姐的视频,这可是侵犯了她们的隐私权啊!而且,被告还把这些视频拿去牟利,更是加重了侵权的性质。 这个判决结果,可以说是给那些想用“AI换脸”技术搞事情的人敲响了警钟! 记住: 你的脸,你做主!任何人都不能未经你的允许,随意使用你的肖像和个人信息!如果你的权益受到了侵害,一定要拿起法律武器维护自己的权利! 最后,大家觉得“AI换脸”技术应该如何使用才安全呢? 欢迎在评论区留言讨论! 关注我 mytoolsAI,带你了解每日最新人工智能,AI信息! 整理 | Kate、Nash
替你打官司的是机器人?法律界迎来人工智能时代
AI律师助手

替你打官司的是机器人?法律界迎来人工智能时代

想象一下,你不再需要花一大笔律师费请人替你处理法律纠纷,而只要一个机器人,一套AI系统,就能帮你起草法律信函、准备案件诉讼,这个未来距离现在还有多久?也许就在当下。在今天的法律界,已经有越来越多的人工智能软件系统开始接手人类律师们的部分工作,或许,距离下一个机器人法官的出现,也不会太久了。 AI律师起草法律信函 24岁的约书亚·布劳德(Joshua Browder)将他的应用软件“DoNotPay”描述为“世界上第一个机器人律师”。它能够帮助起草法律信函。只要你告诉聊天机器人你的问题是什么——例如想要对一张停车罚单提出上诉——它就会向你建议它认为最好的法律语言来写作法律信函。 “人们可以用自己的语言表达观点,但带有机器学习模型的软件会将它与一种更合乎法律用语规范的表达方式进行匹配。”布劳德说。 DoNotPay目前已经风靡英国和美国,现有15万付费用户。它可以帮助用户解决一系列问题:保险索赔、申请旅游签证、投诉企业或地方政府、拿回你因故不能旅游而提前预付的钱,或者取消健身房会员资格。布劳德表示,在疫情期间,最后两者的使用情况出现了激增。 尽管有批评声认为,DoNotPay给的法律建议有时候不够准确,但在2020年,它获得了美国律师协会(ABA)颁发的路易斯·M·布朗奖,以表彰它增加了人们获取法律帮助的途径。布劳德表示,人们通过DoNotPay进行法律诉讼的总体成功率为80%。不过,停车罚单的胜诉率只有65%,这是因为“一些人确实有罪”。 提供预先判断 《福布斯》指出,人工智能深刻地改变了法律格局。“可以将AI律师想象成一个在全美所有主要法院的数十亿条诉讼数据中掘金的矿工:获取有关判决、动议、律师、法官、提起诉讼的各方,以及案件本身的相关信息。然后它会告诉你如何利用这些信息打赢官司,或者,更有可能的是,你能从中达成什么样的和解。” 据统计,在伤害案件中,由于人工智能的存在,有97%的保险公司和受害者双方最终会达成和解,真正进入庭审的少之又少。 即便在法庭上,人工智能也可能继续发挥它的作用。因为在很多情况下,系统算法能够确切地判断某位法官将如何裁决。例如在美国,人工智能已经知道哪些州、市和地方法院会做出更有利于劳工索赔或汽车保险公司的判决,而哪些司法管辖区被这些软件运营商称为“司法地狱”。 不仅如此,人工智能还可以预测哪些律师和律师事务所会变得更精明,哪些可能会促成一场廉价的和解——在人工智能数据记录上的表现已经成了大型律师事务所向一些主要的保险公司和其他公司进行自我宣传的卖点之一。 帮助人类律师打官司 由于人工智能越来越强大,一些人担心AI律师会因此抢走人类律师的工作。但许多法律业内人士并不这么看,相反,他们乐意看到人工智能系统的出现,因为这能帮助他们快速搜索和分类大量案件卷宗。律师利用人工智能获得帮助“正在成为常态,不再新奇”,人工智能法律服务提供公司Luminance的首席执行官埃莉诺·韦弗(Eleanor Weaver)说。 对于伦敦The 36 Group律师事务所主要负责受理刑事案件的律师萨利·霍布森(Sally Hobson)来说,Luminance人工智能法律软件的出现为她的工作带来了极大程度的便利。在她最近接手的一起复杂谋杀案件中,她需要快速分析10000多份文件,正是在Luminance软件的帮助下,她完成这项工作所花的时间比以往快了4周,并省下约5万英镑的费用。 据悉,目前有全球55个国家的300多家律师事务所正在使用Luminance人工智能法律软件,共可提供80种工作语言。 韦弗表示,过去,很多文档检查的技术不过是关键词搜索,比如在笔记本电脑上按下Control-F键。但现在,更加复杂的人工智能软件可以将相关单词和短语联系起来。 不过,人工智能的作用不仅仅是帮助律师整理书面证据,还可以帮助他们准备和组织案件,并搜索任何相关的法律先例。伦敦律师事务所Taylor Wessing数字化纠纷项目的负责人劳伦斯·利伯曼(Laurence Lieberman)表示,只要“上传你的案件摘要和诉状,人工智能就会找出谁是关键人物,然后把他们联系起来,将关键事件的年表组合在一起,解释出在哪个日期发生了什么。”利伯曼使用的是由以色列诉讼公司Litigate开发的一款软件。 此外,德勤法律(Deloitte Legal)的首席技术官布鲁斯·布罗德(Bruce Braude)表示,他们的TAX-I软件系统可以分析类似税务上诉案件的法庭历史数据。德勤法律声称,在70%的情况下,TAX-I都可以正确预测上诉结果。布罗德称:“它提供了一种更可量化的方法,来衡量你成功的可能性,让你来决定是否应该继续诉讼。” AI律师领域的大玩家们 随着人工智能的涌现,对于律师而言,熟悉一些相关的法律信息服务供应商也变得越来越重要。在美国,三个主要的法律信息服务提供商是:彭博法律、汤森路透旗下的WestLaw Edge,以及LexisNexis数据库的Lex Machina。 据了解,这些专业的人工智能供应商开出的价格并不便宜,但一些人工智能领域的主要参与者表示,他们会视情况为不同律师执业提供价格优惠。“我们的价格取决于法律部门的规模,”Lex Machina的产品管理总监卡拉·里德霍姆(Carla Rydholm)说,“我们(的客户)也包含小型律师事务所。”但她没有透露具体优惠比例。 据悉,完整使用彭博法律终端的费用是每年2.4万美元,这包括了彭博旗下的其他服务,如金融数据和全球新闻——这些被认为也可能对律师有用。 新闻及图片来源:BBC、MarketWatch、福布斯,部分图片来自网络 iWeekly周末画报独家稿件,未经许可,请勿转载
律师工作必备AI工具
AI律师助手

律师工作必备AI工具

律师的工作有时候繁琐又耗时,别担心,我们收集了律师工作必备AI工具,这些AI神器让法律工作事半功倍! ChatGPT 由OpenAI开发的一款问答AI,能够起草文件、优化表达、多语言翻译。对于法学生来说非常适合用于案情分析、完成案例分析作业、写实习周记,但生成内容需要审核后再使用。 Kimi Kimi是北京月之暗面科技有限公司于2023年10月9日推出的一款智能助手,主要应用场景为专业学术论文的翻译和理解、辅助分析法律问题、快速理解API开发文档等,是全球首个支持输入20万汉字的智能助手产品。 MetaLaw 案例检索AI,大模型学习了1.5亿国内裁判案例、200万篇法律法规,支持AI关键词筛选,输入法律相关疑问就可以自动完成检索,归纳总结后生成思维导图。 通义法睿 通义法睿是一个大模型时代的AI法律顾问,对律师来说,通义法睿是一个不错的帮手。以前需要花几个小时或者几天时间写的诉状,现在只要上传案情,可以一键生成诉状。还可以生成各种法律文书。 法行宝 法行宝利用创新的人工智能技术,致力于普及法律知识、提高法律服务的可访问性,为全社会提供精准、可信的法律支持,守护每个人的正义与权益,推动社会公平与进步。法行宝提供专业法律问题咨询服务,通过AIGC能力,智能生成定制化、精准详细的法律咨询意见书,提供全场景、专业的案情分析与行动建议。 ChatLaw ChatLaw是一个面向未来的法律人工智能,北大团队发布首个中文法律大模型落地产品ChatLaw,为大众提供普惠法律服务。模型支持文件、语音输出,同时支持法律文书写作、法律建议、法律援助推荐。
版权争议再起!多名美国作家起诉OpenAI:滥用自己作品训练GPT模型
AI律师助手

版权争议再起!多名美国作家起诉OpenAI:滥用自己作品训练GPT模型

财联社12月22日讯(编辑 卞纯)据媒体报道,几位普利策奖得主加入了针对微软和热门AI聊天机器人ChatGPT开发者OpenAI的集体诉讼,指控这两家科技公司未经许可使用他们的版权作品来训练AI模型。 这起诉讼最初由作家朱利安·桑顿(Julian Sancton)于11月底提起。根据周二提交的一份修改后的起诉书,现在原告还包括凯·伯德(Kai Bird)、泰勒·布兰奇(Taylor Branch)、史黛西·希夫(Stacy Schiff)和其他八位非小说类作家。 伯德与人合著了罗伯特·奥本海默传记《美国普罗米修斯》,这本书为其赢得了2006年普利策传记奖,并于今年早些时候被改编成热门电影《奥本海默》。 1989年,布兰奇以讲述马丁·路德·金和民权运动的三卷本系列中的第一部获得普利策历史奖;2000年,希夫以讲述著名作家弗拉基米尔·纳博科夫妻子的传记《Véra》获得普利策传记奖。 这些非小说类作家声称,OpenAI和微软在未经许可的情况下使用他们的作品来训练GPT模型,违反了版权法。微软已向OpenAI投资了数十亿美元,并与后者建立了密切的合作关系。 “OpenAI和微软在未经许可的情况下,盗用人类的共同成果,建立了一项价值数百亿美元的业务,”他们在诉讼中写道。“他们不愿意为知识产权付费,而是假装保护版权的法律不存在。” “非小说类作家通常花费数年时间构思、研究和撰写他们的作品,”诉讼称。“OpenAI和微软拒绝向非小说类作家付费,而他们的AI平台却价值不菲。OpenAI平台的基础是对版权作品的猖獗盗窃。” 作家们向法院提出了金额不详的赔偿要求,并要求法院下令这些公司停止侵犯版权。 AI版权诉讼不断 这是最新一起指控大型科技公司在用于训练AI模型的海量数据集上侵犯版权的诉讼。 包括《姐姐的守护者》的作者乔迪·皮考特(Jodi Picoult)和《权力的游戏》的作者乔治·马丁(George R.R. Martin)在内的十多位小说家也在9月起诉了OpenAI,而另一批作家正在起诉Facebook和Instagram的母公司Meta,指控Meta使用他们的作品来训练人工智能模型Llama 1和 Llama 2。 前阿肯色州州长迈克·赫卡比(Mike Huckabee)和其他几位宗教作家也在10月份起诉Meta、微软等公司,指控这些公司使用了包含他们受版权保护的书籍的数据集。
马斯克起诉OpenAI:诉求恢复“造福人类”初心,揭秘GPT-4背后的商业纷争
AI律师助手

马斯克起诉OpenAI:诉求恢复“造福人类”初心,揭秘GPT-4背后的商业纷争

一场前所未有的法律大战在科技界掀起波澜。知名企业家埃隆·马斯克于上周向热门人工智能公司OpenAI及其联合创始人萨姆·奥特曼和格雷格·布罗克曼提起了诉讼,指控他们违反合同和信托义务。然而,专家指出,这起案件的法律基础存在问题,因为诉讼的核心合同并非由所有相关各方签署的正式书面协议。 马斯克在长达35页的诉状中详细阐述了自己的观点,提醒世人他在OpenAI创建过程中的核心地位。OpenAI因ChatGPT的病毒式传播而声名大噪,成为了地球上最热门的初创公司之一。然而,马斯克声称,早期的OpenAI团队本是为了“造福人类”而开发通用人工智能(AGI),但该项目已经演变成了一个主要受微软控制的营利性实体。 福特·奥布莱恩·兰迪律师事务所合伙人、前美国助理检察官凯文·奥布莱恩在接受采访时表示:“这无疑是为埃隆·马斯克做的一个很好的广告。但我不确定法律部分。”他补充说,“我突然想到的一件事是,没有合同。” 马斯克的律师在诉讼中表示,他们希望OpenAI恢复其作为研究实验室的工作,不再为微软的“经济利益”而存在。对于身家超过2000亿美元的马斯克来说,提起诉讼的法律成本并不构成明显负担,因为这对他个人没有明显的经济利益价值。然而,这起诉讼可能揭示了OpenAI近年来的运作方式以及其商业目标的变化。 瑞格律师事务所电子发现和人工智能全球主管香农·卡彭·柯克认为,马斯克可能只是想迫使公众了解OpenAI的运作方式。她说:“这是一个引人注目的案件,引起了公众的极大兴趣,其结果可能导致所有人都可以使用OpenAI。”她还指出,“这是真正的目的吗?” 马斯克的律师在诉状中称OpenAI已经变成了微软事实上的一个闭源子公司,违反了与马斯克达成的创始协议和2015年注册认证。他们还表示,马斯克作为OpenAI早期的关键捐助者,在2016年向OpenAI捐款超过1500万美元,“比其他任何捐赠者都多”,并帮助这家初创公司建立了一支“顶尖人才”团队。第二年,马斯克又向OpenAI提供了近2000万美元的资金支持。根据诉讼文件显示,在2016年至2020年9月期间,马斯克总共向OpenAI投资了超过4400万美元。 这起诉讼符合马斯克的一贯作风,他经常在社交媒体上发帖评论自己对OpenAI创建的重要性。去年11月,在《纽约时报》的DealBook会议上,马斯克公开指责OpenAI已经偏离了最初的使命。他指出OpenAI已经从一个“开源基金会”转变为价值数十亿美元的“闭源营利性公司”。 在诉讼中马斯克的律师还声称OpenAI的GPT-4人工智能模型的内部工作是“除了OpenAI和微软之外的完全秘密”。他们指责微软以未经授权的方式使用社交媒体数据,并试图通过诉讼揭示GPT-4的细节。然而专家表示即使OpenAI的使命发生了变化也不意味着马斯克有坚实的法律依据来支持他的诉讼请求。 奥布莱恩说:“如果他有任何恢复的希望,他必须证明有这样的协议存在即公司是开放的、不以营利为目的以及所有这些其他的事情。而没有这样做导致他受伤这是另一个问题。”“很难看出伤病在哪里。”他还指出在诉讼过程中保持知识产权和其他内部细节的私密性将是一项艰巨的任务。 尽管面临法律挑战但OpenAI似乎并未受到太大影响。在诉讼曝光后OpenAI首席战略官Jason Kwon在一份内部备忘录中表示“GPT-4不是AGI”。他解释说:“重要的是AGI将是一个高度自主的系统有足够的能力为长期挑战设计新颖的解决方案。GPT-4做不到这一点。”人工智能社区的许多专家也同意Kwon的观点认为GPT-4虽然强大但并未达到AGI的标准。 这起诉讼引发了科技界和法律界的广泛关注。人们纷纷猜测这场官司的结果将如何影响OpenAI和马斯克的未来关系以及人工智能行业的发展方向。无论结果如何这都将是一场引人注目的法律大战值得我们继续关注。 本文源自金融界
马斯克起诉OpenAI及奥特曼:违背技术造福人类的初衷,要求GPT开源
AI律师助手

马斯克起诉OpenAI及奥特曼:违背技术造福人类的初衷,要求GPT开源

继《纽约时报》之后,OpenAI又被告上法庭,这次还是前创始人马斯克。 当地时间2月29日晚间,特斯拉CEO埃隆·马斯克(Elon Musk)向旧金山高等法院提起诉讼,由洛杉矶的律师事务所Irell&Manella代表,以违反合同为由起诉OpenAI及其CEO萨姆·奥特曼(Sam Altman)。 马斯克在诉讼中表示,奥特曼和OpenAI违背了这家AI研究公司成立时达成的一项协议,即开发技术以造福人类而不是利润。马斯克声称OpenAI最近与科技巨头微软的关系损害了该公司最初致力于公共、开源的通用人工智能(AGI)的目标。 法院文件显示,马斯克对OpenAI提出了包括违约、违反信托义务和不公平商业行为在内的指控,并要求该公司恢复开源。马斯克还要求法院下达禁令,禁止OpenAI、其总裁格雷戈里·布罗克曼和奥特曼(此案的共同被告)以及微软从该公司的人工通用智能技术中获利。 马斯克表示,AGI是一种被开发用于自主展现与人类相当认知水平的AI类型,其在OpenAI的GPT-4模型中得到了体现。马斯克指出,于2023年3月发布的GPT-4与之前的版本相比仍是一个封闭模型,而这一举措是出于商业考虑,而不是人类利益。 马斯克在诉讼中写道:“GPT-4的内部细节只有OpenAI知道,在信息和信念上,微软也知道。因此,GPT-4是‘开放式AI’的对立面,它的封闭是出于正当的商业原因:微软希望通过向公众出售GPT-4来赚钱,如果OpenAI——它被要求这样做——让公众免费使用这项技术,这将是不可能的……与创始协议相反,被告选择使用GPT-4不是为了人类的利益,而是作为专利技术,为世界上最大的公司实现利润最大化。” 马斯克还在诉讼中提及了2023年OpenAI的“政变”风波。马斯克称,奥特曼的短暂离职促使微软介入,并迫使试图罢免他的董事会成员辞职,OpenAI目前的董事会成员不再是支持和了解该技术的科学家和研究人员。 马斯克是OpenAI的联合创始人之一,但于2018年离开董事会。他表示,董事会与奥特曼之间的冲突源于GPT-4的开发和AGI技术可能出现的下一次迭代,马斯克担心这可能会危及公共安全。
GPT-4抄袭太可恨求销毁!《纽约时报》正式起诉OpenAI
AI律师助手

GPT-4抄袭太可恨求销毁!《纽约时报》正式起诉OpenAI

对于AI的快速发展,有人欢喜有人愁。自从人工智能开始用于生成图片、文字信息时,美国最有影响力的新闻机构之一——《纽约时报》(The New York Times)的噩梦就开始了。8月初,《纽约时报》先是更新服务条款,禁止将新闻报道和图片等内容用于开发任何软件程式,包括训练机器学习或人工智能系统。随后,它又因版权问题与OpenAI公司卷入了一场诉讼对战中。当地时间27日,《纽约时报》正式起诉OpenAI和微软两大公司,明确指出他们“未经授权,使用已发表的新闻作品训练人工智能”,索赔金额高达数十亿美元,且要求销毁“所有包含《纽约时报》作品的GPT或其他大语言模型训练集”。《纽约时报》打响了“就版权问题起诉ChatGPT平台”的第一枪,事情的发展令人感到意外但又似乎在情理之中。有媒体猜测,也许一开始,《纽约时报》就没准备坐下来和平谈判,而是速战速决。 新闻报道用于AI训练,能被禁止吗? 美国业界对于《纽约时报》的评价一直两极分化。有人认为《纽约时报》在每个议题上试图展现不同群体的观点,实现了帮助读者了解世界的最高抱负;但《经济学人》在12月14日的一篇文章中建议《纽约时报》应该在报道上采取一些措施,让读者能够独立思考,而不是一股脑把所有的观点都输出给他们。无论旁人观点怎样,《纽约时报》在美国新闻行业的领头地位毋庸置疑,内部新闻从业人员也确实认为自己的报道弥足珍贵。他们不会任由科技公司“偷走”报道。 2023年4月,《纽约时报》联系微软和OpenAI,试图就“知识产权问题寻求友好解决方案”,可能涉及商业协议和围绕生成式人工智能产品的“技术护栏”,但到了12月,《纽约时报》明显等不住也不等了,正式起诉这两家科技公司。OpenAI发言人林赛·赫尔德(Lindsey Held)表示对这起诉讼的“惊讶和失望”,在她看来,“友好对话”一直在“建设性地持续推进”。赫尔德指出OpenAI尊重内容创作者和所有者的知识版权,致力于与他们合作,确保他们从人工智能技术和新的收入模式中受益,最终找到一种互惠互利的合作方式。显然,《纽约时报》并不认为结果会是互惠互利。事实上,OpenAl自己也承认,与其他低质量来源的内容相比,《纽约时报》的高质量内容对GPT模型的训练更为重要,也更有价值。 不只《纽约时报》,2023年的夏天,许多公司或个人都对OpenAI提出指控,称该公司非法使用出版内容。美国喜剧演员莎拉·西尔弗曼(Sarah Silverman)2010年出版回忆录《The Bedwetter》,然而她却发现OpenAI在未授权的情况下非法使用这本回忆录的数字版本训练人工智能。《纽约时报》此次提起诉讼也吸取了一些前人的经验,它并没有指出“OpenAI的聊天机器人本身就侵权”的理论,而是提供了大量证据证明GPT-4输出的句子与《纽约时报》的原文高度重合,几乎达到了逐字逐句的效果。其中一个例子是微软聊天机器人必应(Bingo Chat)复制了《纽约时报》10月15日的报道——《哈马斯了解以色列军队的秘密》(The Secrets Hamas knew about Israel’s Military)。在一段原文为396个英文单词的文本展示中,必应原封不动复制了394个字。 △《纽约时报》给出的证据之一。新闻媒体对于AI的态度随着AI的发展,新闻媒体公司在“训练AI”上分成了两大阵营 。一方是“同意派”,美联社于7月与OpenAI签署合作协议,同意提供过去的报道用于数据学习,《华尔街日报》新闻集团也正在考虑向AI开发人员收取使用其中内容的费用,将生成式AI视为未来业绩的支持。另一方是以《纽约时报》为首的“反对派”。事实上近一段时间,《纽约时报》对于AI的评论文章一直偏消极,例如12月28日的报道——《人工智能可以创造出人性化的艺术。这是谁的错?》;12月26日的报道——《人工智能是摄影的未来。这是否意味着摄影已死?》;12月21日的报道——《陌生人如何从ChatGPT中获取我的电子邮件地址?》。然而《纽约时报》并不否认AI的发展和其光明前景,它在今年6月给员工的邮件中写道:“我们决定寻找战略性创新的方法,AI于我们只是一种补充人类专业知识的数字工具。我们为技术的发展感到欣慰,但也需要在热情与事实中保持清醒的平衡。当AI威胁到我们时,我们将诉诸法律武器。” 《好莱坞时报》指出,《纽约时报》可能会面临一场艰苦的斗争,尤其在AI愈加成为各个行业不可阻挡的趋势后,一些创作者决定与OpenAI就训练GPT产品的内容达成协议,选择每月获得一笔可观的版权费,而不是发起法律诉讼。 另一方面,《纽约时报》也并不孤独。在它发起诉讼后,《卫报》报道文章——《纽约时报指控科技巨头OpenAI和微软侵犯版权——事实确实如此》表明这个机构已经站在了《纽约时报》的阵营。今年4月,美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告道,除非科技公司能够尊重版权法,对训练AI加以控制,否则人工智能将对新闻业造成破坏性影响。迪勒还考虑与一群主要出版商一起起诉使用版权内容训练人工智能系统的开发者。媒体大亨默多克领导的“新闻集团”公司(News Corp)是受到AI打击最严重的企业之一,CEO罗伯特·汤姆森(Robert Thomson)指出新闻媒体的知识产权将被AI“偷走”,它不仅能收集和抓取故事,还能吸收和合成故事。这些故事包含了伟大新闻从业者的努力,但却被AI轻而易举盗取,导致读者永远不会再访问新闻网站,从而对新闻业造成不可逆的致命打击。 灰色地带还是合理使用?《纽约时报》的诉讼之所以极富争议性,是因为从根本上来讲,“生成式AI公司训练模型,对于受版权保护内容的使用程度”——这其实是个模糊的灰色地带。分歧的矛盾点就在于,训练并不是复制,而是学习——就如同OpenAI公司发言人赫尔德声称的那样。专家指出,人工智能公司认为训练AI模型是创新之举,因此它们可能会使用所谓的“合理使用原则”为自己的行为进行辩护 。“合理使用”是美国版权法中的一个概念,它允许人们在一定条件下,无需征得版权所有者的同意,可以自由使用受版权保护的部分内容,且不构成侵权。限制条件包括:使用目的是否具有商业意图或非营利教育目的,以及所使用的部分对于整部作品来说篇幅较短,并且不损害版权持有人的经济利益。 此举引起了出版商和作家的不满,他们认为,谷歌图书未经出版商和作者许可,私自扫描书籍,侵犯了版权法,于是在2005年对谷歌公司提出起诉。通过10年斗争,美国联邦上诉法院于2015年做出裁决,认定谷歌公司扫描图书的行为是在法律范围内允许的“合理使用”,并没有侵犯版权。因为谷歌图书并没有创造“替代品市场”,也就是说并不存在与纸质图书的激烈竞争。 媒体公司担心“合理使用原则”会成为某些AI公司侵权的借口。迪勒表示必须重新定义“合理使用”的概念。“当一台不公平的机器没有界限时,就不可能得到合理的使用。”《纽约时报》内部人员也认为,如果法院判定AI生成的新闻与新闻媒体公司的独家新闻不构成竞争关系,那么新闻媒体公司的覆灭也只是时间问题 。 新闻与图片来源:纽约时报、经济学人、好莱坞报道,部分图片来自网络iWeekly周末画报独家稿件,未经许可,请勿转载 《周末画报》2023年年刊已经上线 “炎”:文明之象,星火传承, “炎”:世界共炎凉,全球新公民的共同议题与应对, “炎”:回溯三十年的记录、记忆与怀抱, 挖掘文化、艺术、时尚、商业的热点与创新精神, 展望未来之“炎”。 即可购买《周末画报》2023年年刊 ↑