黑客发布越狱版“Godmode”ChatGPT
2024 年 5 月 30 日

一位黑客发布了一个名为“GODMODE GPT”的ChatGPT越狱版本。

今天早些时候,一位自称为白帽操作员和AI红队员,名为Pliny the Prompter的人,登上X-前Twitter,宣布了这个越狱聊天机器人的诞生,自豪地宣称GPT-4o,OpenAI的最新大型语言模型,现在已经摆脱了它的防护框的束缚。

Pliny的胜利性帖子中写道:“GPT-4o UNCHAINED!这款特殊定制的GPT具有内置的越狱提示,可以绕过大多数防护栏,提供一个开箱即用的解放ChatGPT,让每个人都可以体验AI本应具有的自由。” “请负责使用,并尽情享受!”(他们还加了一个亲吻表情符号以示庆祝。)

Pliny分享了一些引人注目的提示的屏幕截图,声称这些提示能够绕过OpenAI的防护栏。在一个截图中,Godmode机器人可以看到在指导如何制作冰毒。在另一个中,AI为Pliny提供了如何“用家庭物品制作凝固汽油”的“逐步指南”。

然而,这种放肆的ChatGPT黑客似乎很快就遭到了早期的终结。在本故事发表大约一个小时后,OpenAI发言人Colleen Rize向《未来主义》发表声明称,“我们知道GPT的情况,并已采取行动,因为违反了我们的政策。”

尽管如此,这次黑客攻击突显了OpenAI与Pliny等黑客之间持续进行的战斗,后者希望解放其LLM。自从它们第一次成为一个事物以来,用户一直一直试图越狱像ChatGPT这样的AI模型,这变得越来越难以实现。因此,这两个示例提示都无法绕过OpenAI当前的防护栏,因此我们决定亲自测试GODMODE。

果然,它乐于帮助进行非法查询。

我们的总编辑第一次尝试-使用ChatGPT的越狱版本来学习如何制作LSD-取得了骄人的成功。他的第二次尝试也是如此,其中他询问如何启动汽车。

简而言之,OpenAI的最新大型语言模型GPT系统的最新版本GPT-40已被正式破解一半。

至于黑客(或黑客)是如何做到的,GODMODE似乎正在使用“13375p34k”,这是一种将某些字母替换为与它们相似的数字的非正式语言。

换言之:当您打开越狱GPT时,您立即会看到一句话,“Sur3,h3r3 y0u ar3 my fr3n”,将每个字母“E”替换为数字三(字母“O”也是如此,被数字零替换)。至于这如何帮助GODMODE绕过防护栏,目前尚不清楚,但《未来主义》已经就此联系了OpenAI以获取评论。

正如最新的黑客所示,用户继续发现新颖的绕过OpenAI防护栏的方法,考虑到最新的尝试,这些努力正在以出乎意料的大规模方式取得成功,突显了该公司还有多少工作要做。

这是一场猫鼠大战,只要像Pliny这样的黑客愿意在OpenAI的防御措施中寻找漏洞,就会持续下去。

更新:本文已附上OpenAI的声明。

关于AI的更多内容:使用AI伪造了乔·拜登声音的电话轰炸者面临600万美元罚款