文章主题:衡宇, 凹非寺, ChatGPT, 老律师

666AI工具大全,助力做AI时代先行者!

衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

ChatGPT,把从业30年的老律师给坑惨了!

老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书

结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。

在一次严谨的咨询中,这位名叫施哥的先生感到无比痛苦。他深入探究了ChatGPT提供的关于“南方航空公司被诉案”等相关资料,却发现了一种难以言喻的心痛。这种心情如同被浓墨染黑的夜空,让人无法寻找到任何希望的光芒。施哥的严谨态度让他无法忍受任何可能存在的虚假陈述,因此,他对ChatGPT提出了这个问题,希望能够得到一个明确的答复。然而,面对如此严重的质疑,ChatGPT却并未给出令人放心的答案,这无疑让施哥陷入了更加深重的困境之中。

ChatGPT响应得很快:“当然没有啦~~”

事件一出,引发铺天盖地的谈论。

不过这一次大多数网友站在ChatGPT这边,站队后的发言都有些愤愤:

ChatGPT又不是故意撒谎的!

以前人们就喜欢把数学、报告出错的锅甩给计算机,结果“计算机永不出错”的说法就流行开。

但ChatGPT本身就不是事实机器啊。
AI的陷阱:一位律师因ChatGPT失误而遭受重创

一份杜撰6个相关案件的文书

如果没有ChatGPT的介入,施老哥接手的案件本身其实平平无奇:

一位乘客起诉航空公司A,称他乘坐航司A的航班时,被空乘用金属服务车给砸到膝盖受了伤。

作为一名出色的代理律师,施老哥向法庭提交了一份详尽的10页文件,其中充满了深入浅出的分析,并引用了6个类似案件的法院判决,这些案例包括Varghese诉中国南方航空公司案、Zacherman诉大韩航空公司案等。

从业30年,这等案件对老哥来说就是小case。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

然而戏剧性的一幕发生了——

被告律师向法庭提交书面文字,称他们在核实文书中提到的Varghese与南航案时,“无法通过标题或引用找到此案”,也没有任何与此相似的案件。

在文件中引用的一起案例,即Zacherman诉大韩航空公司案,施老哥表示这源于美国第11巡回上诉法院在2008年的观点,然而,被告律师却无法找到该案件的原始文件。

此外美国达美航空的公司正式名称也存在错误,应该是Delta Air Lines,而不是文书中提到的Delta Airlines。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

核实情况后,法官们发现确有其事,这简直是“前所未有的情况”

最终,他们判定这份文书充满“虚假司法判决,虚假引用和虚假内部引用”。

这下好了,施老哥被禁止在纽约南区执业,法官们还将在6月8日将举行听证会,讨论是否制裁施老哥。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

这件荒唐事儿到底是怎么发生的?

施老哥在周四的宣誓书中解开了谜底,原来,在准备文书材料时,他让ChatGPT来给自己打下手,以“补充”自己所做的工作

“我不是故意欺骗法院或航空公司的”,施老哥说自己之前从来没用过ChatGPT,“我不知道它的内容可能有假。”

施老哥还向法院提供了一份“证据”,证明他确实向ChatGPT寻求过材料的真实性。

他在对话框中输入了以下文字:

Varghese是一个真实的案件吗?你的消息来源是什么?你提供的其他案件是假的吗?

ChatGPT迅速给出响应:

我提供的案例是真实的,可以在信誉良好的法律数据库中找到。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

但事实是这些案例都是ChatGPT一本正经胡说八道的。

事已至此,施老哥追悔莫及,表示自己“非常遗憾”依赖ChatGPT来寻找类似案件的判决材料。

他还表达了自己的决心,称以后如果没有验证真实性,再也不会随意相信ChatGPT的“一面之词”了。

法律从业者,是否该拥抱AI

这个案件引起了法律界的广泛关注,对此,纽约大学法学院法律伦理学教授斯蒂芬·吉勒斯(Stephen Gillers)表示,施老哥的事儿虽然只是个例,但背后问题在法律界尤为尖锐

律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。

ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

半年过去了,ChatGPT的问题依然存在,我们还没有找到有效的避免和解决方法。毫无防备之下,一些大型的AI公司已经受到了AI的困扰。例如,Bard编造了有关詹姆斯韦伯太空望远镜的新闻,而Bing则故意声称Bard被关闭了。这些事件充分说明,我们在应对AI方面还存在许多挑战。

为了确保信息的准确性和可靠性,最有效的方法之一是依赖用户自身的双重检查。这也是施老哥上当受骗的一个主要原因,因为他并没有对ChatGPT的真实性进行自己的二次确认,仅仅询问了机器人是否真实存在。因此,对于任何信息的获取,都需要我们进行仔细核实和确认,而不能盲目相信。

除此之外的另一重威胁,ChatGPT引发了从业者对“AI替代律师”的担忧和激烈争辩。

虽然施老哥事件已经发生,但是ChatGPT这类产品的完善程度仍然有待提高。国内外的法律界普遍认为,至少在人工智能取代律师和法官这个说法成为现实之前,这些职业还有一定的生存空间。

AI的陷阱:一位律师因ChatGPT失误而遭受重创

现实情况中,施老哥不是唯一一个让ChatGPT成为自己助手的法律从业者。

今年年初,哥伦比亚一名法官在审理一名自闭症儿童的保险理赔官司时,采纳了ChatGPT的答案。

2月,上海政法学院教授曹阳面对《上海法治报》谈论了ChatGPT在司法领域的应用,表示道:

ChatGPT可以演化成“智能律师助手”,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;可以变成“法律问答机器人”,回答法律问题,并提供相关的法律信息和建议。可以进行合同审核、辅助诉讼、分析法律数据等等,提高法律工作者的效率和准确性。

个人从业者拥抱ChatGPT带来的便利(即便背后隐藏着危险),市场也对法律和AI结合的赛道寄予厚望。

OpenAI自己就在去年11月投资了专为律所打造LLM的公司Harvey,该公司上个月又获得了红杉领投的2100万美金A轮融资。

就在前天,法律AI初创公司Spellbook宣布获得1090万美元(约7700万元人民币)融资。Spellbook主要通过GPT-4和数十亿份法律文件打造,还接入了一些其他大模型。它为专业律师提供服务,通过自然语言就能自动起草、审核法律合同等。

不过现在发生了施老哥身上的这件离谱事,算是给大伙儿敲响了警钟。

大概整个法律界都会对ChatGPT及同类产品抱以更冷静、更谨慎的态度了。

One More Thing

施老哥因为ChatGPT深陷泥潭的事情是真的,绝非通过AI瞎编。

但是,这篇文章也是在ChatGPT的帮助下写的(虽然参与部分很少很少,还进行了事实确认)

——人类的本质就是套娃(狗头)。

参考链接:

[1]https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html

[2]https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

AI的陷阱:一位律师因ChatGPT失误而遭受重创

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!