文章主题:关键词:ChatGPT,假新闻,人工智能,伦理问题
据美国福克斯新闻10日报道,ChatGPT利用《华盛顿邮报》的名头,撰写了一篇虚假新闻。该篇报道声称,著名华盛顿大学法律教授乔纳坦·特雷(Jonathan Turley)与一位女学生一同前往阿拉斯加旅行,期间对其进行了性骚扰。特雷教授随后在社交媒体上发布推文,指控ChatGPT散布诽谤言论,并出现在福克斯电视台,为自己进行澄清。他在节目中强调,此事件毫无根据,纯属捏造,同时指出ChatGPT所涉及的虚假新闻报道中,有5名教授遭受性骚扰的情况,其中3名事件明显是伪造的。
在《美国报道》节目中,他声称自己未曾参与此次旅行,同时也并未与任何学生共同出行。当《华盛顿邮报》的编辑听到这个故事时,都感到难以置信,甚至对人工智能是如何构思出这样一个故事感到困惑,因为他们在现实中无法找到类似的蓝本。
近年来,生成式人工智能(Generative AI)在全球范围内迅速崛起,引发了前所未有的关注热潮。与此同时,这种技术在法律和伦理方面的问题也日益凸显,让人们开始对AI的潜在风险产生警惕。
在此之前,意大利政府已经禁止了 ChatGPT 的使用。紧接着,英国《卫报》报道,11 日,加拿大政府也对 ChatGPT 的创作者 OpenAI 团队进行了侵权调查。同时,美国商务部也在同一天宣布,将建立一个 AI 问责机制,并就相关政策的推出征求公众的意见。这一举动被广泛认为是美国在限制 AI 发展方面迈出的第一步。
特雷教授登上福克斯新闻节目上指责ChatGPT编造假新闻 / Foxnews
美国国家电信和信息管理局(NTIA)的负责人艾伦·戴维森(Alan Davidson)在一场新闻发布会上强调,为了确保人工智能(AI)的安全和可靠性,我们需要建立一个明确的问责机制。这样,公众就可以更加安心地使用 AI 技术,而不会担心 AI 传播误导性信息、侵犯个人隐私,或者产生充满偏见的搜索结果。戴维森指出,鉴于 AI 技术的快速发展,加强对其进行规范和监管显得尤为重要。
在过去的时期,拜登政府曾经发布了一份关于人工智能(AI)使用的指南,旨在指导企业在运用这项技术时确保数据隐私的安全,避免算法的歧视现象,并公开他们在AI应用上的具体操作。与此同时,欧盟在2021年也推出了《人工智能法案》,将AI的风险分为四级,包括极高风险、高风险、一定风险和轻微风险,以此来规范AI的使用。然而,这些法规并不具有强制性,企业可以选择是否遵循。许多公司都严重依赖AI来提升收益,因此他们不愿意受到监管机构的约束。例如,微软迅速对此表示反对,认为使用AI具有多种可能的目的,其中许多都不存在风险,因此将这些 AI 分类为“高风险”是不合理的。即使某些 AI 确实发生了被法案视为“高风险”的行为,比如说散布虚假信息,但这完全是使用 AI 的人的问题,与 AI 本身无关。
这的确是个难题。因此,戴维森也表示,这就是他们征询公共意见的原因。
频发的恶性AI事件让全球加快立法规范的脚步
两年前欧盟首次提议人工智能监管法案,然而近期频繁出现的恶意AI事件全球范围内都在加速相关立法的规范化进程。根据多家的媒体报道,在今年三月底,一名英国大学生因停车问题被开了一张罚单,为逃避罚款,她利用了 ChatGPT 编写了一封上诉信,最终成功地让市议会取消了罚款。而在四月初,另一名美国大学生也被曝光使用 ChatGPT 撰写了论文,并获得了高分。此外,由于身体原因,教皇方济各也成为了网络上的热门话题,网上甚至出现了大量他穿着新潮羽绒服的照片。而当特朗普的刑诉消息传出时,特朗普被一群特警以一种搞笑的方式制服在地上的假新闻图片引发了网友们的热议。此外,被指控编造虚假新闻的的特雷教授则表示,这种行为对他的声誉和学者生涯产生了极为恶劣的影响。
版权问题使得AI带来的风险探讨愈发热烈。诸如ChatGPT和Stable Diffusion等知名AI所依赖的数据库中包含了数十亿网络图片、数百万盗版电子书以及整个维基百科。许多人在使用AI生成的文章和图像时并未意识到,其中大量数据受到版权保护,若未经许可将这些素材用于创作,则构成侵权行为。然而,由于AI生成过程不透明,用户往往无法得知其在为自己绘制或撰写内容时已涉及侵权。这就导致了用户毫无察觉,法律却难以约束,从而使AI侵权现象日益严重。在我国,此类问题也引发了广泛的讨论。
实际上,世界各地的监管机构和司法机构都在严打AI侵权问题,并向AI的创造者发出警告。意大利已经禁用ChatGPT,加拿大对OpenAI展开调查,因为有人投诉ChatGPT“未经同意收集、使用和披露个人信息”。英国数据监管机构也表达了自己的担忧,政府的信息专门办公室主管阿尔蒙德(Stephen Almond) 表示,即使AI用的是公开的数据,数据保护法仍然起作用。也就是说,仍然可以追究AI侵权。
牛津大学计算机教授伍尔德里奇(Michael Wooldridge)指出,在这些AI的机制下,整个互联网的每一个链接、每一个页面都可能会被跟踪,这是个数据海洋如此庞大,你和我都在其中。他提醒AI公司,版权风暴近在眼前。此前,微软的AI多次在生成的回答中引用受版权保护的新闻文章。伍尔德里奇表示,他自己也没有明确允许自己发表的文章被用于AI,但是肯定已经被用过了。
示威者举着“禁止AI”的标语牌 / Alamy
对于画家、作家等艺术创作者来说,AI也如洪水猛兽,不仅要担心自己的生计被ChatGPT抢走,所创作的作品未经允许就被用在AI里。目前,已经有相关法律纠纷,2月,国外著名图片素材公司Getty Images起诉发明Stable Diffusion的英国AI公司Stability AI侵权。无独有偶,1月,一群美国艺术家联合起诉Midjourney和Stability AI,称它们“侵犯了数百万艺术家的权利”。
AI公司坚称自己遵纪守法,拒绝透露训练AI的数据
面对一连串的诉讼和监管要求,AI公司也十分强硬,坚称自己遵纪守法,还拒绝透露用来训练AI的数据。OpenAI首席执行官萨姆·奥特曼(Sam Altman)称团队“遵守了所有隐私法”,并拒绝给出GPT-4的数据库,只说他们用的数据要么是公开的,要么有授权。还有公司辩称自己不盈利,所以就算用盗版也没关系。AI公司Eleuther AI正在开发的AI项目中,其中有100GB的盗版电子书,100GB从Github上拿来的代码,还有228GB的网站内容。Eleuther AI承认所有这些都没有获得相关作者的统一,但是因为都是公开内容,拿来用也不会有什么问题。
AI公司如此不配合,公众的担忧也雪上加霜。在AI领域,主导者并非学术单位,也不是政府,而是企业。斯坦福大学《2023年人工智能指数》报告显示,22年有32个重要AI诞生于企业,而只有3个来自学校,AI开发的高额成本逆转了此前学界主导AI发展的趋势。而相对而言,企业并不会在控制风险上花多大功夫,且如此先进的技术被利润主导的大企业所垄断,带来的后果可想而知。
英国萨里大学人工智能研究所罗戈伊斯基博士说:“这些AI的创造者是以利润驱动的大型企业,可不一定是什么好事。我们普通人的利益可能会被进一步忽视。”而AI假新闻的受害者特雷博士更是警示了AI带来的灾难,“AI总给人一种准确和中立的印象”,却和人类一样会犯错,会说谎,会产生自己的偏见。他多次上节目发言,正是希望人们引以为戒。目前,ChatGPT尚未就诽谤事件向他道歉,也没有发布任何声明。
九派新闻实习记者 李雅文
【来源:九派新闻】
声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com
关键词:ChatGPT,假新闻,人工智能,伦理问题
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!