文章主题:关键词:ChatGPT,假新闻,人工智能,伦理问题

666AI工具大全,助力做AI时代先行者!

据美国福克斯新闻10日报道,ChatGPT利用《华盛顿邮报》的名头,撰写了一篇虚假新闻。该篇报道声称,著名华盛顿大学法律教授乔纳坦·特雷(Jonathan Turley)与一位女学生一同前往阿拉斯加旅行,期间对其进行了性骚扰。特雷教授随后在社交媒体上发布推文,指控ChatGPT散布诽谤言论,并出现在福克斯电视台,为自己进行澄清。他在节目中强调,此事件毫无根据,纯属捏造,同时指出ChatGPT所涉及的虚假新闻报道中,有5名教授遭受性骚扰的情况,其中3名事件明显是伪造的。

在《美国报道》节目中,他声称自己未曾参与此次旅行,同时也并未与任何学生共同出行。当《华盛顿邮报》的编辑听到这个故事时,都感到难以置信,甚至对人工智能是如何构思出这样一个故事感到困惑,因为他们在现实中无法找到类似的蓝本。

近年来,生成式人工智能(Generative AI)在全球范围内迅速崛起,引发了前所未有的关注热潮。与此同时,这种技术在法律和伦理方面的问题也日益凸显,让人们开始对其产生警惕。

在此之前,意大利政府已经禁止了 ChatGPT 的使用。紧接着,英国《卫报》报道,11 日,加拿大政府也对 ChatGPT 的创作者 OpenAI 团队进行了侵权调查。同时,美国商务部也在同一天宣布,将建立一个 AI 问责机制,并就相关政策的推出征求公众的意见。这一举动被广泛认为是美国在限制 AI 发展方面迈出的第一步。

ChatGPT制造的假新闻风波:道德、法律还是技术的问题?

特雷教授登上福克斯新闻节目上指责ChatGPT编造假新闻 / Foxnews

美国国家电信和信息管理局(NTIA)的负责人艾伦·戴维森(Alan Davidson)在一场新闻发布会上强调,为了确保人工智能(AI)的安全和可靠性,我们需要建立一个明确的问责机制。这样,公众就可以更加信任和使用AI技术,防止AI传播误导性信息、侵犯个人隐私,或者产生带有偏见搜索结果。戴维森指出,鉴于AI技术的快速发展,加强对其规范和监管显得尤为重要。

在过去的时期,拜登政府曾经发布了一份关于人工智能(AI)使用的指南,旨在指导企业在运用这项技术时确保数据隐私的安全,避免算法的歧视现象,并公开他们在AI应用上的具体操作。与此同时,欧盟在2021年也推出了《人工智能法案》,将AI的风险分为四级,包括极高风险、高风险、一定风险和轻微风险,以此来规范AI的使用。然而,这些法规并不具有强制性,企业可以选择是否遵循。许多公司都严重依赖AI来提升收益,因此他们不愿意受到监管机构的约束。例如,微软迅速对此表示反对,声称使用AI的目的多种多样,其中大部分都没有风险,因此不应轻易地将其分类。法案将传播虚假信息视为“高风险”行为,但如果AI真的用于此目的,那么责任应归咎于使用AI的人,而非AI本身。

这的确是个难题。因此,戴维森也表示,这就是他们征询公共意见的原因。

频发的恶性AI事件让全球加快立法规范的脚步

两年前欧盟首次提议人工智能监管法案,然而近期频繁出现的恶意AI事件全球范围内都在加速相关立法的规范化进程。根据多家的媒体报道,在今年三月底,一名英国大学生因停车问题被开了一张罚单,为逃避罚款,她利用了 ChatGPT 编写了一封上诉信,最终成功地让市议会取消了罚款。而在四月初,另一名美国大学生也被曝光使用 ChatGPT 撰写了论文,并获得了高分。此外,教皇方济各的健康状况也成为了网络上的热门话题,尤其是他穿着新潮羽绒服的照片引发了不少讨论。而当特朗普的刑事诉讼消息传出时,特朗普被一些特警以一种搞笑的方式制服在地上的假新闻图片迅速在网络上引发了热议。此外,被指控诬陷的特雷教授则强烈指出,AI 编造虚假新闻的行为对他的声誉和学者生涯产生了极为恶劣的影响。

版权争议进一步推动了AI潜在风险的讨论。许多知名AI如ChatGPT和Stable Diffusion等均依赖数十亿网络图片、数百万盗版电子书以及整个维基百科等资源进行训练。然而,人们往往忽视,由AI生成的各类作品中的图像和文本素材可能涉及到版权问题。尽管如此,许多人在使用AI生成内容时并未意识到这一问题。这是因为AI生成过程的透明度较低,用户无法了解AI具体从何处获取何种数据,从而为创作提供了便利。长此以往,用户可能成为侵犯他人版权的“替罪羊”,而AI的侵权行为却日益严重。在我国,此类问题亦引发了广泛的关注和讨论。随着AI技术的普及,如何规范其应用以避免版权纠纷已经成为一个亟待解决的问题。

实际上,世界各地的监管机构和司法机构都在严打AI侵权问题,并向AI的创造者发出警告。意大利已经禁用ChatGPT,加拿大对OpenAI展开调查,因为有人投诉ChatGPT“未经同意收集、使用和披露个人信息”。英国数据监管机构也表达了自己的担忧,政府的信息专门办公室主管阿尔蒙德(Stephen Almond) 表示,即使AI用的是公开的数据,数据保护法仍然起作用。也就是说,仍然可以追究AI侵权。

牛津大学计算机教授伍尔德里奇(Michael Wooldridge)指出,在这些AI的机制下,整个互联网的每一个链接、每一个页面都可能会被跟踪,这是个数据海洋如此庞大,你和我都在其中。他提醒AI公司,版权风暴近在眼前。此前,微软的AI多次在生成的回答中引用受版权保护的新闻文章。伍尔德里奇表示,他自己也没有明确允许自己发表的文章被用于AI,但是肯定已经被用过了。

ChatGPT制造的假新闻风波:道德、法律还是技术的问题?

示威者举着“禁止AI”的标语牌 / Alamy

对于画家、作家等艺术创作者来说,AI也如洪水猛兽,不仅要担心自己的生计被ChatGPT抢走,所创作的作品未经允许就被用在AI里。目前,已经有相关法律纠纷,2月,国外著名图片素材公司Getty Images起诉发明Stable Diffusion的英国AI公司Stability AI侵权。无独有偶,1月,一群美国艺术家联合起诉Midjourney和Stability AI,称它们“侵犯了数百万艺术家的权利”。

AI公司坚称自己遵纪守法,拒绝透露训练AI的数据

面对一连串的诉讼和监管要求,AI公司也十分强硬,坚称自己遵纪守法,还拒绝透露用来训练AI的数据。OpenAI首席执行官萨姆·奥特曼(Sam Altman)称团队“遵守了所有隐私法”,并拒绝给出GPT-4的数据库,只说他们用的数据要么是公开的,要么有授权。还有公司辩称自己不盈利,所以就算用盗版也没关系。AI公司Eleuther AI正在开发的AI项目中,其中有100GB的盗版电子书,100GB从Github上拿来的代码,还有228GB的网站内容。Eleuther AI承认所有这些都没有获得相关作者的统一,但是因为都是公开内容,拿来用也不会有什么问题。

AI公司如此不配合,公众的担忧也雪上加霜。在AI领域,主导者并非学术单位,也不是政府,而是企业。斯坦福大学《2023年人工智能指数》报告显示,22年有32个重要AI诞生于企业,而只有3个来自学校,AI开发的高额成本逆转了此前学界主导AI发展的趋势。而相对而言,企业并不会在控制风险上花多大功夫,且如此先进的技术被利润主导的大企业所垄断,带来的后果可想而知。

英国萨里大学人工智能研究所罗戈伊斯基博士说:“这些AI的创造者是以利润驱动的大型企业,可不一定是什么好事。我们普通人的利益可能会被进一步忽视。”而AI假新闻的受害者特雷博士更是警示了AI带来的灾难,“AI总给人一种准确和中立的印象”,却和人类一样会犯错,会说谎,会产生自己的偏见。他多次上节目发言,正是希望人们引以为戒。目前,ChatGPT尚未就诽谤事件向他道歉,也没有发布任何声明。

九派新闻实习记者 李雅文

【来源:九派新闻】

声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com

关键词:ChatGPT,假新闻,人工智能,伦理问题

ChatGPT制造的假新闻风波:道德、法律还是技术的问题?

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!