ChatGPT可能每天消耗超过50万千瓦时的电力来回应2亿次请求
2024 年 5 月 16 日

ChatGPT 可能每天消耗超过 50 万千瓦时的电力来回应大约 2 亿个请求

在应用程序中阅读 (opens new window)

ChatGPT 消耗的电力远远超过普通美国家庭。

ChatGPT 消耗的电力远远超过普通美国家庭。 LIONEL BONAVENTURE

ChatGPT 使用的电力超过每天 50 万千瓦时,据《纽约客》报道。

与之相比,普通美国家庭仅使用 29 千瓦时。

估算蓬勃发展的人工智能行业消耗的电力是一件难以确定的事情。

AI 正在大量消耗电力。

OpenAI 的备受关注的聊天机器人 ChatGPT 可能每天消耗超过 50 万千瓦时的电力来回应大约 2 亿个请求,根据《纽约客》的报道。

该报道指出,普通美国家庭每天使用约 29 千瓦时。将 ChatGPT 每天使用的电力量除以普通家庭使用的量显示,ChatGPT 使用的电力超过普通家庭的 17,000 多倍。

相关故事

这是非常庞大的数字。如果广泛采用生成式 AI,消耗可能会显著增加。

例如,如果 Google 将生成式 AI 技术整合到每次搜索中,每年将消耗约 290 亿千瓦时,根据荷兰国家银行的数据科学家 Alex de Vries 在可持续能源期刊 Joule 上的一篇论文中的计算。这比肯尼亚、危地马拉和克罗地亚等国家一年的用电量还要多,根据《纽约客》的报道。

“AI 的能耗非常高,”de Vries 告诉《商业内幕》。“这些 AI 服务器中的每一个都可以消耗超过十几个英国家庭的总电力。所以这些数字增长非常迅速。”

然而,估算蓬勃发展的 AI 行业消耗的电力是一件难以确定的事情。大型科技公司驱动着蓬勃发展,但这些公司并没有准确披露其能源使用情况,根据《The Verge》的报道。

然而,在他的论文中,de Vries 根据 Nvidia 公布的数据进行了粗略计算。根据 CNBC 报道的 New Street Research 的数据,该芯片制造商占据了大约 95% 的图形处理器市场份额。

Vries 在论文中估计,到 2027 年,整个 AI 部门的年消耗量将在 85 至 134 太瓦时(百万千瓦时)之间。

“到 2027 年,AI 电力消耗量可能占全球电力消耗的半个百分点,”Vries 告诉《The Verge》。“我认为这是一个相当重要的数字。”

一些世界上最耗电的企业相形见绌。三星的用电量接近 23 太瓦时,而像 Google 这样的科技巨头使用了略多于 12 太瓦时,微软则使用了略多于 10 太瓦时来运行数据中心、网络和用户设备,根据 BI 根据 Consumer Energy Solutions (opens new window) 报告的计算。

OpenAI 尚未立即回应 BI 的评论请求。

2 月 28 日,《商业内幕》的母公司 Axel Springer 与其他 31 家媒体集团一起在荷兰法院提起了一项价值 23 亿美元的诉讼,指控 Google 的广告行为造成的损失。

Axel Springer,商业内幕的母公司,已就允许 OpenAI 对其媒体品牌的报道进行模型训练达成全球协议。