图片来源:NOYB
2024 年 5 月 4 日

OpenAI 是 DALL-E 和 ChatGPT 的开发者,在一起欧洲隐私权组织 NOYB 代表一位匿名个人提出的隐私投诉之后,又一次陷入争议。投诉指称该开发者的热门聊天机器人提供了有关该人的错误信息。

根据路透社 (opens new window)的报道,投诉人被描述为一个公众人物,询问 ChatGPT 他们的生日,而聊天机器人反复提供了一个被称为“幻觉”的错误日期,或者用通俗的说法,就是编造的。问题的关键在于,欧盟《通用数据保护条例》(GDPR)第 5 条规定了个人数据准确性的必要性,这意味着 ChatGPT 选择违反该规定,而不是承认自己不知道正确答案,而提供错误信息。

NOYB 还声称,OpenAI 拒绝了修改或删除数据的请求,称这在技术上不可能,并拒绝透露有关 ChatGPT 源的任何信息。如果属实,这样的回应将违反第 15 条,要求公司展示其对个人拥有的数据以及源头,以及第 16 条,赋予欧盟个人有关删除有关其虚假信息的权利,上述 GDPR 规定。

NOYB 的数据保护律师马蒂·德·格拉夫评论说:“编造虚假信息本身就是相当有问题的。但当涉及到对个人的虚假信息时,可能会带来严重后果。”“很明显,公司目前无法让像 ChatGPT 这样的聊天机器人在处理有关个人数据时遵守欧盟法律。如果系统无法产生准确和透明的结果,就不能用于生成有关个人的数据。技术必须遵守法律要求,而不是相反。”

NOYB 表示,现在正在敦促奥地利数据保护局(DSB)调查 OpenAI 的数据处理方法以及公司语言模型内处理个人数据准确性的措施。NOYB 还要求 OpenAI 遵守投诉人的访问请求,并使其处理实践符合 GDPR。

值得注意的是,OpenAI 最近曾卷入争议。上个月,公司首席技术官米拉·穆拉蒂接受《华尔街日报》采访后,因无法解释他们的文本到视频模型 Sora 是如何训练的而受到批评。在被问及用于训练 Sora 的数据时,穆拉蒂表示她“不确定”,一遍又一遍地重复说数据当然是“公开可得和有许可的”。

看来欧盟正在逐渐成为反击机器的先驱者。早些时候,欧洲议会通过了世界上第一部限制 AI 的法律 (opens new window),旨在通过根据 AI 系统的潜在风险和影响程度分配义务来保护人权。这项立法得到了绝大多数人的支持,将限制高风险 AI 系统和通用 AI,如 GPT-4 语言模型和图像生成器等,一旦生效。