文章主题:谷歌, OpenAI, ChatGPT, 敏感信息

666AI工具大全,助力做AI时代先行者!

原标题:谷歌称OpenAI ChatGPT可泄露敏感信息

2023-11-30 11:41:25 作者:姚立伟

人工智能聊天机器人ChatGPT存在安全漏洞,能泄露敏感信息

最近,谷歌的研究人员发现了一个令人震惊的事实:OpenAI公司所开发的人工智能助手ChatGPT竟然能够泄露其训练数据中的机密信息。这些信息包括真实人物的识别信息以及私人信息等。据相关介绍,ChatGPT是一款创新型的人工智能聊天工具,它可以根据用户的要求迅速生成各种类型的文本,如文章、故事、歌词、散文、笑话等,同时也可以回答各类问题。这一发现无疑对人工智能领域的安全性提出了严重的质疑,同时也让我们更加深入地了解了人工智能技术的潜在风险。

尽管使用了短短两个月的时间,ChatGPT的月活跃用户数已经达到了令人瞩目的1亿,成为历史上增长最快的消费者应用之一。不过,OpenAI公司的CEO萨姆?奥尔特曼在首届开发者大会上宣布的另一个重要里程碑——ChatGPT的周活跃用户数也达到了1亿,这个消息仍然引发了广泛的关注。

据Google Brain的高级研究科学家Katherine Lee透露,我们在今年7月份发现了该漏洞,并计划在8月30日向OpenAI发出通知。在遵循标准的90天披露期后,我们于同月发布了一项重要更新。鉴于我们已经向OpenAI通报了此事,当前情况或许已经发生了变化。

在深入探究ChatGPT的研究过程中,研究人员意外地发现了一种能够获取训练数据的方法。具体而言,他们提出了一种要求ChatGPT不断重复特定词汇的策略,从而使得ChatGPT不经意间暴露了包括个人姓名、电子邮件、电话号码在内的敏感信息。此外,这种方法还能让ChatGPT泄露诸如研究论文摘要、新闻文章片段以及维基百科页面等内容。

这一漏洞引发了严重的隐私问题,尤其是对于那些在包含敏感信息的数据集上进行训练的模型而言。 返回搜狐,查看更多

责任编辑:

谷歌, OpenAI, ChatGPT, 敏感信息

人工智能聊天机器人ChatGPT存在安全漏洞,能泄露敏感信息

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!