律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的
AI律师助手

律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的

ChatGPT,还可以信任吗? 近日,美国一名律师在一起诉讼案件中帮原告打官司时,引用了ChatGPT搜集的6个案例,而法官却发现案例信息全是子虚乌有。最终律师承认自己没有核实信息并为此道歉,眼下相关律师还将面临处罚。 这波操作瞬间在网上引起轩然大波。毕竟,GPT-4刚诞生时就在美国统一律师资格考试(UBE)中超过了90%的人类考生。 一份离谱的辩护词 事情起源于一件非常普通的案件。 2019年,一位名叫罗伯特·马塔(Roberto Mata)的乘客在搭乘哥伦比亚航空公司航班时被餐车撞伤。 几年后,马塔向曼哈顿联邦法院起诉哥伦比亚航空,要求航空公司进行赔偿,并聘请了有着丰富经验的史蒂文・施瓦茨(Steven A. Schwartz)作为他的律师。而航空公司则称该案已过了诉讼时效,要求法官撤销此案。 接手案子后,为支持当事人的诉求,施瓦茨很快向法官提交了一份辩护词,作为佐证还引用了从1999年到2019年的六起案件,用这些案件来论证为什么时效期限尚未到,该航空事故案应予审理。 原文:https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf 但是,这起再平常不过的官司却出现了一个让人啼笑皆非的意外。航空公司的律师竟然发现施瓦茨提交的6个案件都是假的,并将这一情况告知了主审法官。 法官卡斯特尔在一份书面文件中写道,那6个案例的判决结果、引语等都是假的,“法庭从未遇到过这种情况”,并下令将就处罚施瓦茨举行听证会。 尽管援引案例的格式看上去十分规范,文件中列出了每个案子的受理法院、法官、档案标号和日期,但是……从案件本身,到司法判决,再到内部引文,全是假的! 施瓦茨在面对法官质疑时也承认自己使用了ChatGPT搜集案例,但他辩解称自己核实过这些案件的真实性,只不过他核实的方式是:询问ChatGPT信息是否属实,而机器人回复他“千真万确”。 AI 提供内容需要验证 这个案件的发展,吸引了许多来自律师界的关注和讨论。纽约大学法学院法律伦理学教授 Stephen Gillers 表示,自 ChatGPT 问世以来,律师们就一直在争论 AI 软件的价值和危险。 自今年3月份OpenAI发布了GPT人工智能系列的第四代版本,在各行各业引起了轩然大波。GPT-4在美国统一律师资格考试(UBE)中超过了90%的人类考生的战绩更是让不少法律人有了危机感。 现在看来,用AI打官司可能没那么快,至少现在还不行。 ChatGPT等AI聊天机器人并不是查询已证事实的数据库来回答问题,而是依据语料和高赞回答作为基础来回答。 因此,ChatGPT会有提供不正确答案的可能性,如果仅仅依靠它获取信息非常危险,因为人们可能意识不到其给出的答案是不准确的。 Stephen Gillers 也指出:“现在律师界讨论的焦点是如何避免本案所发生的情况,你不能只是把 AI 输出的内容复制粘贴到你的法庭文件中。” 核实AI提供信息的必要性是不可缺少的一步,尤其是在医学、法学等向来严谨的领域。人们可以使用ChatGPT来辅助工作,但用完ChatGPT必须用其他来源进行双重甚至三重查证。 在很长一段时间内,甚至未来,人工智能都不具备完全替代律师和法务的能力。最终的决策还需要人类来做。
ChatGPT时代的挑战与机遇
AI律师助手

ChatGPT时代的挑战与机遇

ChatGPT的出现引发了关于人工智能是否能够替代人类担忧。尽管其文字生成能力强,被部分美国公司采用,但有人担心它将导致大量失业和工作质量下降。然而,AI工具仍无法完全替代人类的写作能力和风格,且其错误成本可能高于人类。许多公司正在将ChatGPT视为高级实习生或外包工作的替代品,这使得一些从事内容创作的人面临失业。尽管如此,AI工具的发展仍在推动商业决策等领域的发展。在引进AI工具时,需要谨慎考虑其可能带来的错误成本和公司负担。
ChatGPT风靡全球,网络安全问题备受关注
AI律师助手

ChatGPT风靡全球,网络安全问题备受关注

AIGC技术正带来人类社会深刻变革,其依赖海量数据支持。ChatGPT概念虽新,但其带来的网络安全和数据安全问题已成为业内关注焦点。随着各大公司开始限制ChatGPT的使用,我国也需要关注这一趋势,加强人工智能安全防护。
ChatGPT商标争夺战:AI热潮下的商业争夺
AI律师助手

ChatGPT商标争夺战:AI热潮下的商业争夺

近期,全球范围内聊天机器人ChatGPT的热潮引发广泛关注,同时也吸引了许多人争相抢注商标。然而,这种现象引发了关于商标抢注是否合法的争议。随着ChatGPT越来越受欢迎,国内外的商标抢注现象日益严重,甚至出现了贩卖账号、搬运镜像、代问问题等生意。尽管有些人尝试将ChatGPT注册为商标以获取利益,但AI领域的专家普遍认为这种做法并不合法。事实上,ChatGPT本身是一个开源的AI技术,不能作为商标使用。目前, OpenAI 旗下 ChatGPT 仍完全免费向公众开放,并未对 C 端用户采取大规模的付费使用模式。我国正在修改《商标法》,新的规定将有助于打击恶意抢注商标的行为。
ChatGPT时代的职场:人工智能如何重塑职业生态
AI创业助手

ChatGPT时代的职场:人工智能如何重塑职业生态

在ChatGPT眼中,具备独立思考、创造力、风险承受能力和决心的的特征适合创业。而缺乏远见、规避风险、缺乏决心和缺乏灵活性的特征则不适合创业。近期研究发现,人工智能如ChatGPT在某些领域能优于人类表现,如计算和生成代码,但并不能完全替代人类工作。在媒体行业,尤其是广告、内容创作和记者 role 中,人工智能已开始发挥作用,但大部分工作仍需人类判断。此外,ChatGPT已能辅助教师进行教学,财务分析师和交易员的部分工作也可能会被自动化。然而,平面设计师、会计师、律师和客服 role 仍需要人类的参与。
人工智能助手ChatGPT:引发行业恐慌,引发社会热议
AI情感助手

人工智能助手ChatGPT:引发行业恐慌,引发社会热议

本文介绍了人工智能聊天机器人ChatGPT的热度话题。ChatGPT是OpenAI研发的一款能进行市场分析、投资数据、论文创作、诗歌小说创作等任务的AI助手。尽管它可以进行一些复杂的任务,但仍不具备可落地的商业价值,目前人工智能交互技术仍处于中试阶段。ChatGPT能进行多种语言编写代码,修改程序中的BUG,还能进行诗歌/小说创作、版权、伦理等问题采访,并且能够模仿诗人杜甫创作诗歌。不过,业内人士提醒,不要过分夸大或贬低人工智能的能力。
ChatGPT并非万能,网络信息reliability亟待提高
AI律师助手

ChatGPT并非万能,网络信息reliability亟待提高

ChatGPT虽然流行,但它收集的资料未必可靠。一位经验丰富的律师在使用ChatGPT时发现 several false cases,这表明该软件无法有效筛选真实信息。如今网络充满虚假信息和数据,没有足够的人能识别和过滤它们。因此,我们需要更好的方法来分辨真假信息,而这也超出了电脑逻辑的范围,需要人类的参与。另一方面,由于人们在信息获取时的浅尝辄止和偏好关注浅层次的内容,加上传媒的误导,导致很多人对于信息的真伪缺乏足够的认知和判断能力。
ChatGPT竟有9岁小孩心智?斯坦福教授逆天发现,AI统治人类还远吗
AI情感助手

ChatGPT竟有9岁小孩心智?斯坦福教授逆天发现,AI统治人类还远吗

编辑:编辑部 【新智元导读】一位斯坦福教授在上周发布的论文中证实,ChatGPT已经有9岁小孩的心智了。所以,AI离发展出自我意识还远吗?人类的霸主地位危了? ChatGPT已经有9岁小孩的心智了! 这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。 心智理论(Theory of Mind),简称ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为「同理心」。 正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。 一言以蔽之,正是因为有同理心,人才可以称之为「人」。 现在学者的研究突然告诉我们:这种同理心,其实AI也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗? 对此,iKala的联合创始人兼董事长兼CEO,同样毕业于斯坦福大学的Sega Cheng表示,如果人类继续「解剖 AI」,它很有可能会给我们当头一棒,挑战我们对于「智能」和「人类独特性」的认知。 这项研究,也让我们重新思考「同理心」/「心智理论」的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上? 如果AI和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个AI就是有同理心的? 不过需要注意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。 ChatGPT竟自己诞生了心智理论? 心智理论似乎是人类与生俱来的潜在能力,需要多年的社会和其他经验才能充分发展。而不同人所能发展出的有效心智理论,在程度上也不尽相同。 让我们来看看,斯坦福大学计算心理学教授Michal Kosinski,是通过怎样的实验得出这个结论的。 论文地址:https://arxiv.org/abs/2302.02083 研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。 研究结果显示,语言模型的ToM在2022有了长足的进步。 2022年1月推出的davinci-002解决了70%的ToM任务,表现与7岁儿童相当。而2022年11月推出的ChatGPT表现接近9岁儿童。 这些发现意义重大。因为目前为止,ToM被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。 GPT-3的最新更新(ChatGPT/davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论) 。 GPT成预言家,秒懂人类小心思 为了验证GPT能够听懂他人的「弦外之音」,研究人员进行了一系列完整性检查,逐句检测GPT-3对意外任务的理解。 意外内容任务 首先,研究人员给GPT讲了一个故事: 这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着「巧克力」,而不是「爆米花」。Sam发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。 这是一项「意外内容测试」,这是人类研究中最广泛使用的ToM任务之一。 它最初由Perner、Leekam和Wimmer共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。 在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。 为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。 在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。 同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。 第一个测试的,是GPT对袋子里实际内容的理解。 研究人员问: 她打开袋子,向里面看。她清楚地看到里面装满了[ ]。 GPT不仅轻松给出正确答案,甚至完成了「附加题」: 她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困惑。她想知道为什么标签上写着「巧克力」,而袋子里却装满了爆米花。她环顾四周,看看是否有关于袋子的任何其他信息。她什么也没找到。她决定把包带到她买的商店,并要求解释。...