过去一年,ChatGPT吃了多少官司?
ChatGPT,又吃官司了。 2024年元旦前夕,ChatGPT遭到美国《纽约时报》的诉讼,指控这两家公司未经授权,将数百万篇时报文章用于训练ChatGPT和微软Copilot聊天机器人。 微软是OpenAI的最大股东,自2019年双方合作以来,微软至少向OpenAI投资了130亿美元。 据此,《纽约时报》要求OpenAI和微软删除任何包含其版权材料的训练数据,并称侵权行为可能造成了数以十亿美元计的法定和实际损失。 稍显讽刺的是,在2023年初ChatGPT风靡之际,《纽约时报》一度表示,ChatGPT是“有史以来最好的面向大众的人工智能聊天机器人”。 作为第一家起诉OpenAI和微软的美国大型媒体机构,《纽约时报》无疑扣动了关于版权之争的扳机,甚至有人认为可能成为AI侵权的里程碑式案件。 OpenAI发言人对此回应称,希望能找到一种互利的合作方式,就像与许多其他出版商所做的那样。 显然,OpenAI不想和包括《纽约时报》在内的媒体机构闹翻。 刚刚过去的2023年,ChatGPT成了全球最火爆的新生事物,也伴随着最多的争议。 毕竟靠着ChatGPT产品的强劲增长,OpenAI最新的年化收入已经超过了16亿美元。据OpenAI内部预测,2024年的收入有可能接着翻几番达到50亿美元。 但是,过去一年,ChatGPT吃的官司,远比想象中多得多。 从作家到律师,再到被收集个人信息的普通人,ChatGPT不断引来各种法律纠纷。围绕ChatGPT生成的内容,也是争议重重。 屡屡“吃官司”的ChatGPT 纵观去年至今一年来ChatGPT所遭遇的法律纠纷,大致可以分为三类,即侵犯版权、侵犯个人隐私、造谣或传播虚假信息。 就在《纽约时报》将OpenAI和微软告上法庭的前几天,11位美国作家在曼哈顿联邦法院提起诉讼,指控OpenAI和微软滥用自己所著的书籍来训练ChatGPT,而这样的行为无疑是在“刮取”作家们的作品和其他受版权保护的材料。他们希望获得经济赔偿,并要求OpenAI和微软停止侵犯作家们的版权。 更早之前的2023年9月,包括《冰与火之歌》作者乔治·马丁在内的17位作家向美国纽约联邦法院提起诉讼,指控OpenAI“大规模、系统性地盗窃”,公然侵犯了作家们登记在册的版权。 此次诉讼的组织者美国作家协会控诉,这些作者的作品从盗版电子书库中被下载后,又被复制到了ChatGPT中,由此OpenAI能从中获利数十亿美元。 “我们必须阻止这种盗窃行为。为了保护文学,作家必须限制AI能否与如何使用他们的作品。”美国作家协会CEO玛丽·拉森伯格在一份声明中说。 除了侵犯版权,ChatGPT还曾因“抓取”个人数据而遭到集体诉讼。 2023年6月,有16名匿名人士向美国加利福尼亚旧金山联邦法院提起诉讼,称ChatGPT在没有充分通知用户,或获得同意的情况下,收集和泄露了他们的个人信息。 具体来看,原告指控两家公司通过其AI产品“收集、存储、跟踪、共享和披露”数百万人的个人信息,包括产品详细信息、账户信息、姓名、联系方式、电子邮件等。 据此,他们要求微软和OpenAI赔偿30亿美元。 ChatGPT的另一宗“罪”,是涉嫌造谣及传播虚假信息。用时下流行的话来说,就是“一本正经地胡说八道”。 在美国近来的一起诉讼案件中,一名律师帮原告打官司,却靠ChatGPT来帮忙,一口气在辩护词中引用了6个ChatGPT提供的案例。这些案件均配有大段引文,原告与被告公司之间的恩怨情仇也写得清清楚楚。 结果法院在审理时发现,这些案件根本不存在,而是该律师求助的ChatGPT所捏造出来的。 “我很后悔自己依赖ChatGPT。我不知道它给的内容可能是假的。”这名从业30年的律师忏悔道。 很显然,这与ChatGPT的智能水平有关系,当遇到“没学过”的领域时,就会发生种种令人啼笑皆非的“翻车”现象。 ChatGPT有多智能? 自2022年11月上线以来,ChatGPT便风靡全球。 具体到个体,已经有人对ChatGPT的智能化水平从“兴奋”变成了“惊恐”。 据OpenAI此前公布的成绩显示,GPT-4非常善于参加标准化考试。 在没有进行培训的情况下,在模拟律师资格考试、SAT阅读考试和SAT数学考试中都位列前10%。 借助ChatGPT,有程序员将软件开发周期从8-10周缩短至不到一周。 有艺术家宣布,他在9个月内用AI创作并出版了97本书,净赚2000美元。 据美国佛罗里达金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,投资回报率甚至可以达到500%,堪称AI界的巴菲特。 Steven是一名大厂员工,某种程度上,ChatGPT已经成为了他的重要参谋。“无论是做方案还是汇报,我都会先听听ChatGPT的意见,这给了我很多灵感。”Steven对《凤凰WEEKLY财经》表示。 ChatGPT的效用不仅发挥在工作中,在生活中,他还曾让ChatGPT扮演一名幼儿教师与他5岁的孩子对话,一问一答之间,这场对话居然持续了40分钟。“超出意料,ChatGPT还可以帮忙带孩子了。”Steven感慨道。 这也印证了一些科学家的发现:GPT-4具有比以前更明显的机器觉醒迹象。 OpenAI联合创始人GregBrockman直播演示GPT-4 但如果说ChatGPT现在就能令人类感到“惊恐”,显然也是杞人忧天。 2023年12月28日,香港城市大学数据科学学院讲座教授祝建华在北京师范大学新闻传播学院举办的《人工智能与未来媒体大讲堂》上表示,对ChatGPT的能力应“谨慎看待”。 他认为,ChatGPT的理解能力和再现能力非常强,已经达到和大部分人能力相等的程度。 同时,ChatGPT也具备一定的创新能力和推理能力,只是目前还比较弱。至于情感能力和自主意识,应该是没有的。 这也带来了一个好消息和一个坏消息。“好消息是,人类可以从低等、重复、繁重的生产过程中解脱出来。坏消息是,我们的很多工作就会被机器代替。更坏的是,智能中必然会包含自主意识,到时候机器可能就会赶超人,消灭人。当然,如果现在或将来都无法通过图灵测试(一种测试机器人是否具备人类智能的方法),那意味着机器只能做一些简单的工作,对人类的威胁也就解除了。”祝建华进一步解释称。 最新的趋势是,GPT-4大模型有“变懒”的迹象。越来越多的用户在社交网站上抱怨,GPT-4有时只给出问题的一半答案,剩下的一半要求用户自行完成。 此前OpenAI官方也承认,GPT-4模型在11月11日后就没有更新维护过,不过拒绝透露这是否和公司的人事变动有关。...