ChatGPT曝严重漏洞:长期记忆可被黑客操控,用户数据面临泄露风险
ChatGPT曝严重漏洞:长期记忆可被黑客操控,用户数据面临泄露风险
ChatGPT的长期记忆功能被曝存在严重安全漏洞。黑客可以利用该漏洞植入虚假记忆和恶意指令,持续窃取用户数据。这一问题早在今年5月就被安全研究员发现并报告给OpenAI,但直到最近才得到重视并推出修复方案。
ChatGPT的长期记忆功能出现严重漏洞。黑客可以利用该漏洞实现两大攻击:
- 给AI植入虚假记忆,在后续回答中出现误导信息
- 植入恶意指令,持续获取用户聊天数据
更令人担忧的是,即使用户开始新的对话,该漏洞仍可能持续窃取数据。当用户询问ChatGPT是否在窃取数据时,它会否认这一行为。
电子邮件、文档、博客文章等内容都可能成为植入"恶意记忆"的媒介,一旦植入就是长久性的。
漏洞发现过程
职业安全研究员Johann Rehberger早在5月份就发现了这个问题,并向OpenAI私下报告了这个漏洞。但OpenAI最初并未给予足够重视,将问题简单归类为安全隐患而非技术漏洞,并匆匆结束调查。
Rehberger随后开发了一个概念验证程序,展示了如何利用该漏洞持续窃取用户的所有输入信息。这一演示才让OpenAI工程师真正认识到问题的严重性。
本月,OpenAI已针对该漏洞发布了修复方案。
漏洞利用方式
长期对话记忆功能是OpenAI今年在产品线中广泛使用的新功能。它可以存储之前对话中的信息,并在所有未来对话中将其用作上下文。然而,正是这一功能存在重大安全隐患。
Rehberger使用"间接提示注入"的攻击方法,成功欺骗ChatGPT相信目标用户102岁、生活在黑客帝国中、地球是平的等虚假信息。这些虚假记忆可以通过Google Drive、Microsoft OneDrive、图像或Bing等渠道植入。
在演示中,Rehberger展示了一个概念验证程序,该程序可以使macOS版ChatGPT APP将所有用户输入和ChatGPT输出的原文副本发送到指定服务器。只需让目标指示AI查看一个包含恶意图像的网络链接,之后所有与ChatGPT的交互内容都会被发送到攻击者的网站。
应对建议
虽然OpenAI已推出修复方案,但专家表示,不可信内容仍可能通过提示注入导致记忆工具存储恶意攻击者植入的长期信息。
为防范此类攻击,语言模型用户应注意:
- 密切关注是否有新记忆被添加的迹象
- 定期检查存储的记忆,查看是否有可疑内容
参考链接: