ChatGPT扩展插件存在的漏洞允许访问敏感数据
2024 年 5 月 13 日

ChatGPT扩展程序中的缺陷导致敏感数据泄露

来自Salt Labs (opens new window)的新威胁研究揭示了ChatGPT插件中的关键安全漏洞,为企业带来了新的风险。

插件为AI聊天机器人(如ChatGPT)提供访问权限,并允许其代表用户在第三方网站上执行任务。例如,提交代码到GitHub存储库或从组织的Google Drive检索数据。

这些安全漏洞引入了一种新的攻击向量,可能使不法分子控制组织在第三方网站上的帐户,或者允许访问存储在第三方应用程序中的个人可识别信息(PII)和其他敏感用户数据。

Salt Labs团队发现了ChatGPT插件中三种不同类型的漏洞。第一个漏洞利用ChatGPT的代码批准过程,允许攻击者安装恶意插件以访问用户的帐户。

第二个漏洞出现在PluginLab(pluginlab.ai)中,这是开发人员和公司用来为ChatGPT开发插件的框架。研究人员发现PluginLab没有正确验证用户帐户,这将允许潜在的攻击者插入另一个用户ID并获取代表受害者的代码,从而导致插件上的帐户接管。

第三个漏洞是在几个插件中发现的,即OAuth(开放授权)重定向操纵。几个插件不验证URL,这意味着攻击者可以插入恶意URL并窃取用户凭据。

在发现漏洞后,Salt Labs的研究人员遵循了与OpenAI和第三方供应商的协调披露实践。所有问题都很快得到解决,没有证据表明这些漏洞被利用过。

"像ChatGPT这样的生成式AI工具迅速吸引了全球数百万人的注意,它们具有显著提高业务运营效率以及日常生活的潜力,"Salt Security的研究副总裁Yaniv Balmas说道。"随着越来越多的组织利用这种技术,攻击者也在转变他们的努力,寻找利用这些工具并随后获得对敏感数据的访问权限的方法。我们最近在ChatGPT中发现的漏洞揭示了保护这种技术中的插件至关重要,以确保攻击者无法访问关键的业务资产并执行帐户接管。"

您可以在Salt Security博客 (opens new window)上阅读更多内容。

图片来源Arwagula (opens new window)/Dreamstime.com (opens new window)