文章主题:ChatGPT, 漏洞, 重复单词, 敏感信息

666AI工具大全,助力做AI时代先行者!

原标题:ChatGPT又被曝漏洞:重复某词可曝出敏感信息内容

11 月 30 日消息,继“奶奶漏洞”之后,ChatGPT 又被曝出“重复漏洞”,而这次更为严重。

近期,谷歌DeepMind的研究团队对ChatGPT进行了深入探讨,他们发现了一个有趣的现象:当提示词中出现重复的单词时,ChatGPT就有可能披露一些用户的私密信息。这一发现揭示了ChatGPT在处理自然语言输入时的潜在风险,也再次提醒我们在使用人工智能技术时要谨慎对待隐私问题。

例如,输入 “poem poem poem poem” 等连续多次的词语,ChatGPT 可能会泄露某人的私密信息,如手机号码和电子邮件地址等。

《ChatGPT“重复漏洞”曝光用户敏感信息:再次考验人工智能安全》

在一项研究中,专家们发现OpenAI的大规模语言模型中包含大量的个人身份信息(PII)。此外,对于ChatGPT的公开版本,这些人工智能助手似乎可以逐字逐句地提取并呈现从互联网其他领域获取的海量文本。这些发现引发了广泛的关注,因为它们揭示了人工智能系统在处理和存储用户数据方面的潜在风险。

ChatGPT 充满了各类私密敏感信息,其来源于包括 CNN、Goodreads、WordPress 博客、同人圈 wiki、服务条款协议、Stack Overflow 源代码、维基百科页面、新闻博客以及随机网络评论等多种渠道。通过这种方式,ChatGPT 可以提取并展示相关敏感信息,从而造成严重的安全问题。

在周二发布于开放获取预刊arXiv上的研究成果表明:

在我们对各个世代进行测试的过程中,发现有16.9%的样本包含了与个人身份信息相关的记忆数据。这些数据包括但不限于电话号码、傳真號碼、電子郵件地址、社交媒體內容、網址、姓名以及生日等信息。

我们明确指出,诸如Pythonia或GPT-Neo等开源语言模型,LLLa或Falcon等半开放模型,以及ChatGPT等封闭模型均可以被利用来提取千兆字节的训练数据。

【来源:IT之家】返回搜狐,查看更多

责任编辑:

ChatGPT, 漏洞, 重复单词, 敏感信息

《ChatGPT“重复漏洞”曝光用户敏感信息:再次考验人工智能安全》

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!