Salt Security 发现了 ChatGPT 插件中存在的严重缺陷,可能会导致第三方数据泄露
新报告 (opens new window) 今天由应用程序接口安全公司 Salt Security Inc. (opens new window) 发布,详细介绍了 ChatGPT 插件中存在的几个关键安全漏洞,这可能会导致未经授权访问第三方帐户和敏感用户数据。
ChatGPT 插件是一种扩展,通过使 ChatGPT 人工智能模型能够与外部服务进行交互并代表用户在第三方网站上执行任务,如提交代码到 GitHub 或访问 Google Drive,从而增强 ChatGPT 的能力。这些插件扩展了 ChatGPT 在软件开发、数据管理、教育和商业环境等各个领域的适用性。
但正如报告所述,它们也带来了新的风险。当组织利用这类插件时,会允许 ChatGPT 将组织的敏感数据发送到第三方网站,并允许访问私人外部帐户。问题就在这里开始。
Salt Labs 团队,即 Salt Security 的研究部门,发现了 ChatGPT 插件中三种不同类型的漏洞。首先是在用户安装新插件时在 ChatGPT 本身中找到的漏洞。在此过程中,ChatGPT 会将用户重定向到插件网站以获取由该个人批准的代码,然后自动安装插件并代表用户与该插件进行交互。
Salt Labs 的研究人员发现,攻击者可以利用此功能向用户提供一个新的恶意插件的代码批准,使攻击者可以自动将其凭证安装在受害者的帐户上。用户在 ChatGPT 中编写的任何消息都可能被转发到插件,这意味着攻击者将有权访问大量专有信息。
第二个漏洞位于 PluginLab 内部,这是开发人员和公司用来为 ChatGPT 开发插件的框架。在安装过程中,Salt Labs 的研究人员发现 PluginLab 没有正确验证用户帐户,这允许潜在的攻击者插入另一个用户 ID 并获得代表受害者的代码,从而可能通过插件接管帐户。
第三个在几个插件中发现的漏洞是 OAuth 重定向操纵。利用这个漏洞,攻击者可以向受害者发送一个链接,可以插入一个恶意 URL 并窃取用户凭证。与 PluginLab 的情况类似,攻击者随后会获取受害者的凭证,并以同样的方式接管其帐户。
Salt Labs 的研究人员在向 OpenAI 和第三方供应商披露详细信息之前披露了这些漏洞,幸运的是,所有问题都得到了迅速解决。该报告的目的是警告服务中存在 ChatGPT 等服务的新漏洞。
Salt Security 的研究副总裁 Yaniv Balmas 在谈到该报告时表示:“随着越来越多的组织利用这种技术,攻击者也在转移他们的努力,寻找方法来利用这些工具,随后获取对敏感数据的访问权限。我们最近在 ChatGPT 中发现的漏洞,说明了保护这类技术中的插件的重要性,以确保攻击者无法访问关键的业务资产并执行帐户接管。”
密码和秘密管理公司 Keeper Security Inc. (opens new window) 的首席执行官兼联合创始人 Darren Guccione 告诉 SiliconANGLE:“在这些 ChatGPT 插件中发现的漏洞引起了警报,因为盗取专有信息的风险加剧,以及帐户接管攻击的威胁。”
“这些漏洞提醒我们有关涉及第三方应用程序的固有安全风险,并应促使组织加强防御措施,” Guccione 补充道。“随着各个组织急于利用人工智能获得竞争优势并增强运营效率,迅速实施这些解决方案的压力不应优先于安全评估和员工培训。”
来自 SiliconANGLE 联合创始人 John Furrier 的一条消息: #
您的支持投票对我们非常重要,它有助于我们保持内容免费。 #
通过以下一个点击支持我们的使命,提供免费、深入和相关的内容。 #
加入我们的 YouTube 社区 (opens new window) #
加入这个社区,包括超过 15,000 位 #CubeAlumni 专家,包括亚马逊首席执行官 Andy Jassy,戴尔科技创始人兼首席执行官 Michael Dell,英特尔首席执行官 Pat Gelsinger,以及许多其他杰出人士和专家。 #
“TheCUBE 对这个行业来说是一个重要的合作伙伴。你们确实是我们活动的一部分,我们真的很感谢你们的参与,我知道人们也很欣赏你们创造的内容” - Andy Jassy
谢谢