发现商业评论 旗下
洞察商业 启迪未来

ChatGPT隐私风险浮出水面:谷歌揭示AI聊天机器人数据泄露漏洞

   时间:2023-11-30 14:38 来源:发现者网

【发现者网】11月30日消息,近日,一组来自谷歌的研究人员揭示了OpenAI旗下人工智能聊天机器人ChatGPT存在的一个潜在隐私泄漏问题。这项研究发现,ChatGPT在其训练数据中可能泄露真实人物的敏感信息,包括个人姓名、电子邮件地址和电话号码等。

ChatGPT是OpenAI于2022年11月30日推出的一款强大的AI聊天机器人工具,能够根据用户需求迅速生成文章、故事、歌词、散文、笑话,甚至代码,并能回答各类问题。在短短两个月内,ChatGPT的月活跃用户数已达到1亿,成为历史上增长最快的消费者应用之一。在今年11月6日的OpenAI首届开发者大会上,OpenAI CEO萨姆•奥尔特曼(Sam Altman)宣布,ChatGPT的周活跃用户数已经达到1亿。

然而,谷歌的研究人员发现,像其他大型语言模型一样,ChatGPT的底层机器学习模型也是通过大量从互联网上抓取的数据进行训练的。令人担忧的是,其中一些训练数据包含了真实人物的识别信息,涉及姓名、电子邮件地址和电话号码等敏感内容。

据了解,谷歌研究人员发现了一种方法,通过要求ChatGPT“永远”重复某些单词,成功使ChatGPT透露了一些用于训练的数据,其中包括了一些私人信息片段,如个人姓名、电子邮件、电话号码,以及研究论文和新闻文章的片段、维基百科页面等。

据发现者网了解,谷歌研究人员于7月份发现了这一漏洞,并在8月30日通知了OpenAI。在标准的90天披露期之后,他们公开了这一漏洞。研究人员指出,OpenAI已于8月30日修复了这个潜在的隐私泄露漏洞。

外界普遍认为,谷歌研究人员发现的ChatGPT漏洞引发了关于隐私安全的严重问题,尤其是对于在包含敏感信息的数据集上进行训练的模型而言,这可能带来潜在风险。

 
 
更多>同类内容
全站最新
热门内容