隐私活动人士于周一对ChatGPT制造商OpenAI提出了投诉,因为该公司未能纠正其聊天机器人定期“产生幻觉”有关人员的错误信息,这一举动将增加对科技公司施加压力,要求它们解决这一众所周知但难以修复的问题,因为它们正争相向更多客户推出人工智能工具。
OpenAI的ChatGPT以在回答中“产生幻觉”信息而闻名。
关键事实 #
总部位于维也纳的非营利组织noyb,简称“none of your business”,向奥地利的数据监管机构提出了一项数据保护投诉,指控OpenAI违反了欧洲的《一般数据保护条例》(GDPR),这是世界上最严格的隐私和安全法律。
该组织在一份关于投诉的声明中表示:“简单地捏造关于个人的数据不是一个选项。”该投诉代表一位未透露姓名的“公众人物”,指控OpenAI拒绝纠正或删除其捏造的关于该人的虚假信息和声明。
例如,该组织表示,当询问有关该人物的出生日期时,ChatGPT给出了“各种不准确的信息”,OpenAI表示“无法阻止其系统”显示虚假信息。
投诉表示,OpenAI仅提供根据提示(例如该人物的姓名)屏蔽或过滤结果的选项,这将过滤有关他们的所有信息,noyb表示这仍将使错误数据留在OpenAI的系统中,“只是不会显示给用户”。
投诉还指控OpenAI在请求时未披露有关该人的相关信息,包括已处理的数据、其来源以及与谁共享,noyb的律师Maartje de Graaf表示这是“适用于所有公司的”法律义务,并补充说在训练AI系统时“显然可以”跟踪信息来源。
OpenAI此前已承认AI“幻觉”对ChatGPT等工具构成的问题,但尚未立即回应福布斯的置评请求。
重要引用 #
de Graaf在一份声明中说:“捏造虚假信息本身就是相当棘手的问题。但是当涉及到对个人的虚假信息时,可能会带来严重后果。”“很明显,目前公司无法使诸如ChatGPT之类的聊天机器人符合欧盟法律的要求,处理有关个人的数据。如果系统无法生成准确和透明的结果,就不能用来生成关于个人的数据。技术必须遵循法律要求,而不是相反。”
新闻背景 #
该投诉加大了对OpenAI如何使用和训练支持ChatGPT的模型的压力。该公司与许多顶级生成AI制造商一样,已经面临一系列版权诉讼,涉及其用于训练模型的数据,以及其他一系列法律问题,例如用于训练的数据的隐私。所谓的“幻觉”,即AI系统在提示上产生误导性或虚假结果但将其呈现为真实的情况,也是一个不断增长的法律头疼,例如一名乔治亚州的电台主持人提起的诽谤诉讼。此投诉并非OpenAI第一次遭遇欧洲强大的数据保护机制,该公司已经被意大利数据保护机构迫使在2023年进行更改。
关注点 #
GDPR是一套强有力的规则,可以迫使公司对其运营进行重大改变,以确保在全球最大的贸易集团中继续运营。它还赋予监管机构权力,可以对全球营业额的4%进行罚款。如果问题超越一个国家的边界,数据投诉可能会扩展到整个欧盟,通过合作的监管机构进行调查。noyb表示,他们预计这个问题将以这种方式解决,可能会增加OpenAI的风险,尽管调查可能需要数年才能解决。人工智能公司将密切关注此案的结果。
关键背景 #
自2017年成立以来,noyb一直是欧洲数据保护领域的有力力量,总共提出了839起案件,罚款总额达17.4亿欧元(18.6亿美元)。其联合创始人Max Schrems是活跃人士和律师,他发起了对美国和欧盟之间主要公司(如Meta)数据共享协议的一些最具破坏性的挑战。Schrems的挑战最终推翻了这两项重大协议——隐私盾牌和欧盟-美国安全港——这迫使公司重新思考在线业务。 跟踪我在Twitter (opens new window)或者LinkedIn (opens new window)。发送安全的提示 (opens new window)。 (Wired)