据Ars Technica报道,一名用户声称Open AI的ChatGPT泄露了私密的和无关的用户对话,包括药房用户的工单和显示多个网站的登录凭证的代码片段。
Chase Whiteside向Ars解释说,他们一直在使用ChatGPT来想出“调色板中颜色的巧妙名称”,然后显然离开了屏幕。当他们重新打开它时,发现页面左侧有更多的对话,而这些对话都不是他们自己发起的。 但OpenAI并不认同。
“Ars Technica在我们的欺诈和安全团队完成调查之前就发表了报道,他们的报道不幸地不准确,”一位发言人在回答关于Ars的报道的问题时告诉我们。“根据我们的调查结果,用户的账户登录凭证被盗用,然后一个恶意行为者使用了这个账户。显示的聊天历史和文件是这个账户被滥用的对话,而不是ChatGPT显示了另一个用户的历史。” 读者截图并发送给Ars的对话中,有一个包括制作演示文稿的交流和一些PHP代码的对话,似乎包含了前面提到的药房门户的故障处理工单。更奇怪的是,这些工单的文本显示它们是在2020年和2021年发起的,而那时ChatGPT还没有推出。
网站没有解释这些日期的不一致,但有一定的可能性是它们是ChatGPT的训练数据的一部分。的确,去年,ChatGPT的制造商OpenAI被一起巨额的集体诉讼指控,该公司秘密地使用了大量的医疗数据和其他个人信息来训练其大型语言模型(LLM)。
在不到18个月的历史中,ChatGPT已经多次被指控是一个漏洞百出的水龙头。在2023年3月,OpenAI被迫承认,一个故障导致了聊天机器人向无关的用户显示了一些用户之间的对话,而在12月,该公司推出了一个补丁,以修复另一个可能将用户数据暴露给未经授权的第三方的问题。
而在2023年底,谷歌的研究人员发现,通过使用一些“攻击”提示,或者是让聊天机器人做一些它不应该做的事情的关键词,ChatGPT会泄露其训练数据的大部分。 不过,如果没有别的,这至少提醒了我们一个古老的操作安全格言:不要把任何你不想让陌生人看到的东西放到ChatGPT或任何其他程序中。