文章主题:ChatGPT, AI诽谤诉讼, 涉隐私安全争议

666AI工具大全,助力做AI时代先行者!

如果被AI“造谣”,该如何应对?

🏆【全球首例】澳洲市长怒怼ChatGPT:滥用AI技术将面临诽谤指控💥 据當地時間4月6日聞訊,澳大利亚某市長布赖恩·胡德對OpenAI旗下備受關注的聊天模型ChatGPT發起了一場法律挑戰。他堅稱,這款人工智能程式無端指證其涉及一樁贿赂醜聞,並成為不實指控的罪魁禍首。若此訴訟成真,將創下歷史上針對生成式AI技術引起的首宗诽谤案件紀錄。🚀這起事件引發了對於科技與法律邊界的深思:當AI生成的内容開始混淆真相,誰該為其不當行為負責?ChatGPT的普及和其可能產生的負面影響,將成為全球討論焦點。👩‍⚖️💻胡德市长的行動不僅是對OpenAI的一次直接質疑,也是對所有依赖人工智能生成内容的機構的一個警告,必須確保算法的公正性和透明度。他的訴訟,無疑將為未來的法律判例提供寶貴案例,並可能促使相關法律法規進一步完善。🔍

🌟随着AI技术的进步,特别是AIGC和大模型的普及,关于它们带来的内容真实性问题引发了广泛讨论:面对层出不穷的虚假信息,我们是否该完全将责任归咎于AI?🔍诚然,AI生成的内容在追求精确度上确实面临挑战,它能否确保100%真实无误一直是个悬而未决的话题。ChatGPT等热门模型也因此饱受质疑,不仅关于内容准确性,还有隐私和安全的隐忧。👀这些潜在风险引起了全球监管机构的高度警惕,他们正密切关注AI生成内容可能带来的法律与伦理问题。🛡️尽管如此,我们不能忽视AI在信息传播中的作用,它的发展也促使我们重新审视责任分配,寻找更有效的解决方案。💻优化后的表述:🤔 AI生成内容的准确性与隐私安全引发了全球关注,ChatGPT等技术的进步引发了关于AI责任归属的深度讨论。👀 随着AI在信息领域的广泛应用,监管机构正对潜在风险保持警惕,同时也在推动相关法规和伦理标准的完善。🛡️ 未来,我们需要在利用AI的同时,更明智地分配责任,以应对这一挑战。💻 #AI内容真实# #隐私安全# #监管关注

👀 意大利首开禁令!欧洲紧随其后,ChatGPT遭遇全球审查浪潮。近日,EDPB紧急成立工作组,各国纷纷跟进,对这款人工智能语言模型的崛起展开规制行动。随着ChatGPT的迅速扩散,立法者和监管机构已开始为可能的规则制定做好准备,旨在确保技术的合理使用与用户数据安全。🌍

1 “凭空造谣”的ChatGPT

🏆前任墨市西部赫本郡领头人💼胡德,以其在Note Printing Australia的反腐揭发行动,声名鹊起。在那里,他曾勇敢地向澳大利亚监管机构揭露公司不正当手段——贿赂外国官员以争取至关重要的货币印刷合约。他的正义之举成为法庭案件中的关键证人,亲身经历了法律进程的严苛考验。🌱如今,他的故事不仅彰显了职业道德的力量,也成为了SEO优化的理想内容,吸引着寻求真相和公正的眼球。

极简版

🌟【揭露真相】💡胡德针对网络谣言,于3月21日向创新巨头OpenAI发出了严峻警告——他已正式向OpenAI递交了法律信函,呼吁在接下来的28天内,对错误指控其因贿赂入狱的不实言论进行严厉修正。否则,一场法律行动已在筹备中等待着真相大白的时刻。极坐标系下,求曲线$r=3\cos(\theta)$与$r=3\sin(\theta)$所围成区域的面积

这并不是ChatGPT第一次指鹿为马。3月底,乔治华盛顿大学教授乔纳森·特利(Jonathan Turley)收到一封同行的邮件告知,他被ChatGPT列入性骚扰名单,但事实并非如此。

这一“乌龙”是美国加州大学洛杉矶分校教授尤金·沃洛克(Eugene Volokh)使用ChatGPT做研究时发现的,当时他要求ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,特利赫然在列。

在这起事件中,ChatGPT甚至给出错误的信息来源,称《华盛顿邮报》一篇2018年的报道指出,特利被指控在一次去阿拉斯加的旅行中对法律系学生动手动脚。可是特利从未和学生一起去过阿拉斯加,《华盛顿邮报》也从未发表过这样的文章。

如果说在这之前,人们对ChatGPT“编造论文”,或是一些“胡言乱语”也许还能一笑置之,但在这两件事上明显没那么好笑。

很显然,OpenAI也注意到内容虚假的问题,曾在公司网站发布博文上承认:“自从推出ChatGPT 以来,用户已经分享了许多他们认为有偏见、冒犯性或其他令人反感的输出。在许多情况下,我们认可了这些担忧,它们揭示了我们系统的真正局限性,我们希望解决这些问题。”

OpenAI首席执行官Sam Altman也曾表示,他对人工智能技术以及它如何影响劳动力、选举和虚假信息的传播有些“害怕”。

2 谁该为AI作假负责?

倘若胡德正式起诉Open AI,这将是全球首例针对生成式AI的诽谤诉讼,并且将带来一系列法律问题,诸如如何认定侵权行为、难点在哪、谁来为AI作假担责等等。

中国人民大学法学院教授、法语国家法制研究中心主任石佳友告诉南都·AI前哨站,在类似案件中,如果被侵权方提起诉讼,AIGC服务提供方需要对这一诽谤承担责任。人工智能作为一种科技应用,负有尊重他人人格权的义务,如果生成了虚假信息,且足以对他人的名誉造成明显的贬损评价——比如指名道姓地说别人从事一些完全没有从事的行为,这种情况下确实侵害名誉权。”

清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正则提到了责任认定的难点。他认为,即使AIGC服务提供者存在一部分责任,但由于大模型的量级巨大,其内容生产过程对于服务提供者来说可能也是某种黑箱。因此,不能将责任全部归咎于OpenAI。

他进一步指出,由于大语言模型的回应生成模式,使得有关责任认定变得更为复杂,“因为这个工具现在的问题是——即使你问同样的问题,它生成内容也可能不一样,如果你的提示词不同,所生成答案也不一样。也就是说,这不是我们通常意义上理解的,只有一个标准答案。”

此外,如何使用、谁使用了ChatGPT生成的答案,对案件的责任认定也有影响。梁正认为,如果是在较为严肃的场景,比如研究或新闻生产使用ChatGPT生成的答案时,使用者有责任对其进行核查。如果未经核查使用ChatGPT的生成内容并造成广泛负面影响,那么使用者也应当承担部分责任。

面对应用越来越广泛AIGC大模型,可以想见的是,ChatGPT不会是唯一具有使用风险的大模型,那么如何防止AI传播虚假信息?

梁正建议,工具提供方应该在技术保障上尽量做到真实,如果做不到提供完全真实的信息,就应当承担明确的责任,如在生成的内容中进行明确标识。与此同时,工具的使用者也应对生成内容进行核查。

3 ChatGPT的安全隐忧

自面世以来,ChatGPT一路“狂飙”引发科技圈的狂欢,但伴随而来的风险不容忽视。除了被指“作假”外,ChatGPT也面临隐私和数据安全方面的隐忧,正在引起各国的高度关注。

率先出手的是意大利。今年3月31日,意大利宣布“封禁”ChatGPT。近期,意大利“松口”——若OpenAI公司想在4月底前恢复上线这一对话机器人需要采取一系列措施,包括告知处理数据的方法逻辑、上线年龄验证系统、更正或删除不准确的个人数据信息等。

继意大利之后,欧洲多国监管机构也跟进考虑对AI采取更严格的监管措施。这几天,西班牙、法国接连出手,宣布对ChatGPT展开调查。

当地时间4月11日,西班牙数据保护局表示,ChatGPT的全球运作模式会对个人权利产生重大影响,这需要欧洲层面协调决定。现已向欧洲数据保护委员会(EDPB)提出建议,将ChatGPT问题纳入下一次全体会议的讨论范畴,以便欧盟成员国可以在GDPR的适用框架下实施协调一致的行动。

法国数据监管机构CNIL也透露,目前正在调查有关ChatGPT的几起投诉。当地时间4月13日,欧洲数据保护委员会(EDPB)宣布成立专门的工作组,以帮助各国应对ChatGPT有关的隐私问题。

有研究人工智能学者告诉AI·前哨站,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。这些个人信息可被用于用户画像和训练模型,个人信息的收集、使用和传输都面临着安全挑战。

为回应这些安全质疑,OpenAI在美国当地4月5日发布了一份声明,强调致力于确保AI的安全性,并明确尊重隐私、提高事实准确性、儿童保护等多方面的举措。比如OpenAI将对被用户标记为不正确的输出数据作出反馈;通过微调模型以排除收集个人信息,并回应用户删除个人信息的请求等。

现阶段,OpenAI的这些承诺或许还很难平息质疑。面对ChatGPT带来的种种隐忧,多国立法者和监管机构正在试图给ChatGPT“立规矩”。

随着ChatGPT的爆火,今年人工智能技术发展和规范成为全球聚焦的热点。南都·AI前哨站发现,近期国产ChatGPT密集上线,包括阿里、百度在内的中国科技企业先后推出各自的大模型。这波浪潮之下,中国的监管机构也开始着手规范生成式人工智能服务。

4月11日,网信办发布的《生成式人工智能服务管理办法(征求意见稿)》,其中规定利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。

而随着AI时代来临,如何预防技术失控“狂飙”?又该如何治理以保障人工智能的安全性?这是人们无法绕开的课题。

出品:南都人工智能研究课题组

采写:南都记者胡耕硕

如何应对被AI’造谣’?首例诉讼将揭示真相与责任边缘

如何应对被AI’造谣’?首例诉讼将揭示真相与责任边缘

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!