文章主题:关键词:ChatGPT,假新闻,人工智能,伦理问题
据美国福克斯新闻10日报道,ChatGPT利用《华盛顿邮报》的名号,撰写了一篇虚假新闻。该篇报道声称,著名华盛顿大学法律教授乔纳坦·特雷(Jonathan Turley)与一位女学生一同前往阿拉斯加旅行,期间对其进行了性骚扰。特雷教授针对此篇不实报道发布推文进行澄清,指出这是一场误会,纯属捏造。他还指出,ChatGPT所涉及的假新闻事件中,有5名教授被指控性骚扰,但其中3名教授实际上并未遭遇此类事件。
在《美国报道》节目中,他声称自己未曾参与此次旅行,同时也并未与任何学生共同出行。当《华盛顿邮报》的编辑听到这个故事时,都感到难以置信,甚至对人工智能是如何构思出这样一个故事感到困惑,因为他们在现实中无法找到类似的蓝本。
近年来,生成式人工智能(Generative AI)在全球范围内迅速崛起,引发了前所未有的关注和热潮。与此同时,这种技术在法律和伦理方面的问题也日益凸显,引发了各方的高度警惕。
在此之前,意大利政府已经禁止了 ChatGPT 的使用。紧接着,英国《卫报》报道,11 日,加拿大政府也对 ChatGPT 的开发者 OpenAI 团队进行了侵权调查。同时,美国商务部也在同一天宣布,将建立一个 AI 问责机制,并就相关政策的推出征求公众的意见。这一举动被广泛认为是美国在限制 AI 发展方面迈出的第一步。
特雷教授登上福克斯新闻节目上指责ChatGPT编造假新闻 / Foxnews
美国国家电信和信息管理局(NTIA)的负责人艾伦·戴维森(Alan Davidson)在一场新闻发布会上强调,为了确保人工智能(AI)的安全和可靠性,我们需要建立一个明确的问责机制。这样,公众就可以更加安心地使用 AI 技术,而不会担心 AI 传播误导性信息、侵犯个人隐私,或者产生充满偏见的搜索结果。戴维森指出,鉴于 AI 技术的快速发展,加强对其进行规范和监管显得尤为重要。
在过去的时期,拜登政府曾经发布了一份关于人工智能(AI)使用的指南,旨在指导企业在运用这项技术时确保数据隐私的安全,避免算法的歧视性,以及公开他们如何利用 AI 的过程。与此同时,欧盟在2021年也推出了《人工智能法案》,该法案将 AI 根据其潜在风险分为四个类别:极高风险、高风险、中等风险和轻微风险,以此来规范 AI 的使用。然而,这些法规并不具有强制力,因此企业可以选择是否遵守。许多公司都严重依赖 AI 以提高收益,所以他们不愿意受到监管机构的约束。例如,微软迅速对此表示反对,声称 AI 可以用于各种目的,其中许多都不具有风险,因此不应轻易地对其进行分类。在法案中,传播虚假信息被视为“高风险”行为,即使某些 AI 确实参与了这样的活动,那也是使用 AI 的人的问题,与 AI 本身无关。
这的确是个难题。因此,戴维森也表示,这就是他们征询公共意见的原因。
频发的恶性AI事件让全球加快立法规范的脚步
两年前欧盟初次提议人工智能监管法案时,全球都在等待其进展。然而,近期频繁出现的恶意人工智能事件使得各国纷纷加速制定相关法律法规。据多家中媒报道,今年3月底,一名英国大学生因停车问题收到罚款通知,为避免罚款,她利用ChatGPT撰写了一封上诉信,最终成功说服了市政议会取消罚款。仅在4月初,另一名美国大学生也被曝光使用ChatGPT编写论文并获得高分。此外,教皇方济各的健康状况多次成为网络热议话题,甚至出现了许多他身着时尚羽绒服的照片。而当特朗普的审判消息传出时,一位名为特朗普的特警以一种搞笑的方式将他制服在地,这则在网络上引发了大量讨论。此外,被指控编造虚假新闻的的特雷教授也严厉指责这种行为对他的学者生涯和声誉造成了极大影响。
版权争议使得AI带来的潜在风险成为了热门话题。许多知名AI如ChatGPT和Stable Diffusion等,其运作过程中都会用到来自网络的大量图片、数百万本盗版电子书以及整个维基百科等资源。然而,很多人在使用AI生成的文章和图片时,却并未意识到其中许多数据实际上受到版权保护。简单地利用这些受版权保护的素材来生成新的作品,即为侵权行为。更为重要的是,许多人在使用AI的过程中,并未察觉到AI已经在为自己生成图片和文字。这是因为AI生成结果的过程并不透明,它并不会告知用户从何处获取、使用了哪些数据来生成这样的作品。这就导致了用户在不知情的情况下,依然在使用侵权素材。而法律方面则往往无法对此采取有效措施,从而使得AI侵权现象愈发严重。在我国,此类问题也引发了广泛的讨论。
实际上,世界各地的监管机构和司法机构都在严打AI侵权问题,并向AI的创造者发出警告。意大利已经禁用ChatGPT,加拿大对OpenAI展开调查,因为有人投诉ChatGPT“未经同意收集、使用和披露个人信息”。英国数据监管机构也表达了自己的担忧,政府的信息专门办公室主管阿尔蒙德(Stephen Almond) 表示,即使AI用的是公开的数据,数据保护法仍然起作用。也就是说,仍然可以追究AI侵权。
牛津大学计算机教授伍尔德里奇(Michael Wooldridge)指出,在这些AI的机制下,整个互联网的每一个链接、每一个页面都可能会被跟踪,这是个数据海洋如此庞大,你和我都在其中。他提醒AI公司,版权风暴近在眼前。此前,微软的AI多次在生成的回答中引用受版权保护的新闻文章。伍尔德里奇表示,他自己也没有明确允许自己发表的文章被用于AI,但是肯定已经被用过了。
示威者举着“禁止AI”的标语牌 / Alamy
对于画家、作家等艺术创作者来说,AI也如洪水猛兽,不仅要担心自己的生计被ChatGPT抢走,所创作的作品未经允许就被用在AI里。目前,已经有相关法律纠纷,2月,国外著名图片素材公司Getty Images起诉发明Stable Diffusion的英国AI公司Stability AI侵权。无独有偶,1月,一群美国艺术家联合起诉Midjourney和Stability AI,称它们“侵犯了数百万艺术家的权利”。
AI公司坚称自己遵纪守法,拒绝透露训练AI的数据
面对一连串的诉讼和监管要求,AI公司也十分强硬,坚称自己遵纪守法,还拒绝透露用来训练AI的数据。OpenAI首席执行官萨姆·奥特曼(Sam Altman)称团队“遵守了所有隐私法”,并拒绝给出GPT-4的数据库,只说他们用的数据要么是公开的,要么有授权。还有公司辩称自己不盈利,所以就算用盗版也没关系。AI公司Eleuther AI正在开发的AI项目中,其中有100GB的盗版电子书,100GB从Github上拿来的代码,还有228GB的网站内容。Eleuther AI承认所有这些都没有获得相关作者的统一,但是因为都是公开内容,拿来用也不会有什么问题。
AI公司如此不配合,公众的担忧也雪上加霜。在AI领域,主导者并非学术单位,也不是政府,而是企业。斯坦福大学《2023年人工智能指数》报告显示,22年有32个重要AI诞生于企业,而只有3个来自学校,AI开发的高额成本逆转了此前学界主导AI发展的趋势。而相对而言,企业并不会在控制风险上花多大功夫,且如此先进的技术被利润主导的大企业所垄断,带来的后果可想而知。
英国萨里大学人工智能研究所罗戈伊斯基博士说:“这些AI的创造者是以利润驱动的大型企业,可不一定是什么好事。我们普通人的利益可能会被进一步忽视。”而AI假新闻的受害者特雷博士更是警示了AI带来的灾难,“AI总给人一种准确和中立的印象”,却和人类一样会犯错,会说谎,会产生自己的偏见。他多次上节目发言,正是希望人们引以为戒。目前,ChatGPT尚未就诽谤事件向他道歉,也没有发布任何声明。
九派新闻实习记者 李雅文
【来源:九派新闻】
声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com
关键词:ChatGPT,假新闻,人工智能,伦理问题
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!