ChatGPT 动力宣传时代即将到来
2024 年 5 月 31 日

ChatGPT 动力宣传时代已经来临 #

OpenAI 表示,它已经关闭了正在使用其产品的潜在影响运动。乔纳森·拉/努尔摄影社通过盖蒂图片社

  • OpenAI 表示,在过去三个月内,它打击了五次秘密影响行动。
  • 中国、俄罗斯、伊朗和以色列的团体使用了其产品,OpenAI 表示。
  • 这家备受关注的人工智能公司此前曾就其工具的安全性问题提出异议。

感谢您的注册!

在您外出时,访问您喜欢的主题,获得个性化的信息。

通过点击“注册”,您接受我们的服务条款 (opens new window)隐私政策 (opens new window)。您可以随时访问我们的首选页面或点击电子邮件底部的“退订”来选择退出。

中国、伊朗、俄罗斯和其他国家正在使用 OpenAI 工具进行秘密影响行动,这是根据该公司的说法。

在周四的一篇博客文章中 (opens new window),OpenAI 表示,它迅速做出反应,在过去三个月中打击了五次企图通过欺骗来操纵公众舆论并影响政治结果的行动。

OpenAI 关闭的行动利用人工智能生成不同语言的评论和文章,为虚假社交媒体账户编造姓名和个人资料,调试代码等。

OpenAI 表示,它挫败了俄罗斯的两次行动,中国的一次行动,伊朗的一次行动,以色列一家商业公司的一次行动。

OpenAI 在其博客中写道,这些活动涉及“俄罗斯入侵乌克兰、加沙冲突、印度选举、欧洲和美国政治以及中国持不同政见者和外国政府对中国政府的批评”。

OpenAI 声称,这些活动不仅依赖于人工智能工具,还使用人类操作员。

一些行动者利用人工智能改进其活动的质量,如生成更少错误的文本,而其他人则利用人工智能增加其产出,如在社交媒体帖子上产生更大量的虚假评论。

例如,OpenAI 表示,以色列的行动使用人工智能生成关于加沙战争的简短文本,将其发布在社交媒体上,然后制造虚假账户的 AI 生成的回复和评论。

但是,OpenAI 指出,这些活动没有得到任何实际人类的有意义参与,它们对人工智能的使用也未帮助它们增加受众或影响力。

OpenAI 表示,其自己的人工智能帮助追踪到了恶意行为者。在其博客文章中,公司表示,它与企业和政府组织合作进行了由人工智能推动的调查。

OpenAI 表示,由于其工具,调查“只需几天,而不是几周或几个月”。

该公司表示,其人工智能产品还具有内置的安全防御措施,有助于减少恶意行为者滥用其产品的程度。OpenAI 解释说,在多个案例中,其工具拒绝生成恶意行为者请求的图像和文本。

OpenAI 不断展示其对安全和透明度的承诺,但并非所有人都买账。一些人认为,包括 OpenAI CEO Sam Altman 在内,高度先进的人工智能可能对人类构成存在威胁。

领先的人工智能研究人员、技术先驱 Stuart Russell 此前告诉 Business Insider (opens new window),他认为 Altman 正在开发技术,而没有先弄清楚如何使其安全 —— 并称这是“完全不可接受的”。

“这就是为什么大多数 OpenAI 的安全人员离开了,”Russell 告诉 BI。

阿克塞尔·施普林格(Axel Springer),Business Insider 的母公司,达成了一项全球协议,允许 OpenAI 在其媒体品牌的报道上训练其模型。