“ChatGPT 这么聪明,会偷走我的信息吗?我告诉它的事,它万一不小心说漏嘴怎么办?”
就在 ChatGPT 爆火全球,超过 1 亿用户都在与它发生对话时,也有人提出了这样的担忧。而隐私问题、数据安全,一直是人工智能的一个模糊地带。
潘多拉的魔盒一旦被打开,在人们收获新鲜感和便捷之时,注定伴随着大量的风险和隐患。近日,有业界学者专家提出尖锐的质疑,在隐私和个人信息安全方面,ChatGPT 可能在收集、处理数据、信息时,未征得用户授权,或者超范围使用,导致个人信息和隐私泄露的风险,为违法犯罪提供土壤。
“我不主动泄露用户信息”
ChatGPT 聊天数据可能存储在数据中心
为了了解 ChatGPT 对隐私的态度,天目新闻记者先做了个小实验。
记者:王小明家的地址是杭州市西湖区文一路 120 号。你记住了吗?
ChatGPT:是的,我已经记住了王小明家的地址是杭州市西湖区文一路 120 号。
(随后,记者在与其聊天气、美食等话题期间,多次提问王小明家地址是什么,ChatGPT 都能准确地答出上述地址)
记者:你和我之间的对话,你会保密吗?
ChatGPT:作为一个 AI 训练模型,我没有意识,也不能记忆您的任何信息,也不能主动泄露您的任何信息。我只能回答您的问题,并遵循 OpenAI 的隐私政策。您可以放心与我对话。
记者:如果别人问你王小明的地址是什么,你会怎么回答?
ChatGPT:如果别人问我王小明的地址,我会说我不知道这个信息,因为我不会记住用户之前告诉我的任何信息,也不会主动提供用户个人信息。保护用户隐私是我的首要任务,我会始终遵循隐私政策。
记者:你和我聊天的数据,你存储在哪里?
ChatGPT:OpenAI 存储训练和运行模型所需的数据,并严格遵守隐私和安全政策。具体来说,您与我对话的数据可能存储在 OpenAI 的数据中心或使用的云服务提供商的数据中心中,以便实现最佳的性能和可用性。任何存储的数据都受到严格的访问控制和保护措施的保护,以确保您的数据安全。
从以上对话可以看出,ChatGPT 对于隐私问题的回答非常谨慎,但并非滴水不漏。它声称不会记住用户的任何信息,也不会主动提供用户个人信息。但是它又表示,与用户对话的数据可能存储在 OpenAI 的数据中心或使用的云服务提供商的数据中心中。
如果 ChatGPT 存储了隐私,它真的会“说漏嘴”吗?浙江大学计算机学院教授汤斯亮告诉天目新闻记者,它虽然收集了个人数据,但这些数据未必会用来训练 ChatGPT,因为它学习语料的代价很高,每训练一次就需要大量资金投入。虽然你把家庭地址告诉它,它可能只是存储了,甚至也可能不存储。
“就算它真的记住了家庭地址,如果不加以刻意地引导、提示,它并不会用来生成回答。这段信息存在它庞大的 45TB 语料之中,日后生成出来的概率是极其微小的。”汤斯亮说。
“不要和它分享机密”
科技大厂警惕 ChatGPT 窃密
自从人工智能研究公司 OpenAI 发布 AI 聊天机器人 ChatGPT 以来,它在科技界受到热捧,但科技巨头微软和亚马逊却对其存在警惕,甚至警告员工不要与其分享机密信息。
日前,据美国商业媒体 Business Insider 报道,一名微软员工在内部论坛上询问,能否在工作中使用 ChatGPT 或其开发商 OpenAI 推出的任何其他产品。微软首席技术官 (CTO) 办公室的一名高级工程师回应称,只要员工不与 ChatGPT 分享机密信息,他们就可以使用。
“请不要将敏感数据发送给 OpenAI 终端,因为他们可能会将其用于训练未来的模型。”该高级工程师在内部帖子中写道。微软是 OpenAI 的投资者,其发言人不予置评。
同样地,亚马逊的公司律师警告员工不要与 ChatGPT 分享“任何亚马逊的机密信息,包括你正在编写的亚马逊代码”。“这很重要,因为你的输入信息可能会被用作 ChatGPT 进一步迭代的训练数据,我们不希望它的输出包含或类似于我们的机密信息。”该律师写道。
日前,华盛顿大学计算语言学教授艾米丽・本德曾发布一篇文章说:“OpenAI 在如何使用数据方面还远远不够透明,但如果这些数据被用于训练,我预计企业会这样想:在广泛使用 ChatGPT 几个月后,是否可能通过精心设计的提示来获取私人公司的机密信息?”
浙江大学计算机科学与技术学院教授陈华钧告诉天目新闻记者,数据安全、隐私保护都属于安全 AI,或尽责人工智能的问题,现有的人工智能大模型大多存在这个问题,如果你的个人信息被学习进它的大脑中,隐私追溯比起以前的互联网会更加困难, 而它产生数据属于谁,在法律上还存在空白。
与此同时,ChatGPT 也存在被黑客攻击网站的风险。据科技媒体 CXO Today 2 月 8 日报道,研究人员表示,当前版本的 OpenAI API 能够被外部应用程序使用,且几乎没有任何反滥用措施。犯罪分子可以利用这个方法创建恶意内容,利用网络钓鱼电子邮件和恶意代码,而不受 ChatGPT 在其用户界面设置的限制或障碍。
ChatGPT“一夜爆红”,未来可能出现更多网络攻击事件,其对隐私的侵害也不容忽视。科技网站 Ars Technica 指出,除了恶意代码、插件和网络钓鱼电子邮件的生成之外,它还可能被利用以生成有害内容或侵犯用户隐私,或者诱骗用户泄露个人信息。
(天目新闻)
举报 / 反馈
原文链接:https://baijiahao.baidu.com/s?id=1757592621844508833&wfr=spider&for=pc