文章主题:IT之家, 纽约时报, 聊天机器人, ChatGPT

666AI工具大全,助力做AI时代先行者!

近期,一位律师在一场法庭案件中,尝试利用聊天机器人ChatGPT辅助进行法律文献检索,然而却出现了提交错误信息的情况。这个事件引发了人们对人工智能在法律领域潜在风险的关注,其中包括误传播错误信息的可能性。据纽约时报报道,此事件暴露出人工智能在法律应用中的潜在问题,这值得我们深入探讨和关注。

AI误生:聊天机器人引发法律文献检索争议

在一起备受关注的案件中,一名男子因个人受伤而向一家航空公司提起诉讼。原告的法律团队精心准备了一份简洁明了的诉讼文件,并巧妙地引用了若干先前法院案例,以巩固其诉求的法律依据,旨在为自身的主张创立一个先例。然而,航空公司的律师在审查过程中发现部分案例引用并无实际依据,于是立刻通知了主审法官。

凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。

在一份书面声明中,原告律师之一史蒂文・施瓦茨公开承认,他曾经利用ChatGPT工具搜索与案件相关的法律先例。对此,施瓦茨表示深深的遗憾,并强调自己之前并未使用过人工智能进行此类检索,同时他也认识到这种技术的潜在风险,即可能会出现虚假信息。

在向法院提交的文件中,我们提供了施瓦茨与ChatGPT之间的一段对话记录。在对话过程中,施瓦茨针对一个特定案例提出了质疑:Varghese v. China Southern Airlines Co Ltd 的真实性。令人意外的是,ChatGPT对此表示确认,并强调该案例在法律参考数据库如LexisNexis和Westlaw中具有较高的参考价值。然而,随后的进一步调查却揭示,这个案例实际上并不存在。更糟糕的是,ChatGPT竟然捏造了六个并不存在的案例。

在这起事件中,涉及到两位来自Levidow律所的律师。

AI误生:聊天机器人引发法律文献检索争议

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!