DeepSeek、OpenAI与Anthropic谁是最环保的AI模型?

前言:AI应用背后的“隐形代价”

在当下这个AI爆炸式发展的时代,各大语言模型不断刷新自然语言理解、代码生成、视频创作等多项能力指标,但鲜少有人关注它们背后巨大的环境代价。每一个你在ChatGPT或DeepSeek中输入的提示,背后都需要一整个GPU集群的高强度运算,而这运算,是需要电、水与碳足迹共同支撑的。

2025年春季,一项由罗德岛大学牵头的研究终于给出答案。他们用真实API响应速度、GPU运算逻辑、电网区域碳强度等参数,推导出了“每次提示所需资源消耗”,并整合成独创的“生态效率评分”。

这项研究涵盖了30个主流模型,包括OpenAI、Anthropic、Google、Meta、以及中国的DeepSeek


一、能耗篇:DeepSeek为何成“电老虎”?

根据报告,OpenAI的o3模型与DeepSeek的旗舰推理模型,在生成一段长回答时,平均消耗 33瓦时(Wh)以上。而OpenAI旗下的轻量版GPT-4.1 nano模型,仅需不到0.5瓦时,相当于两者相差 70倍能耗差距

背后原因:硬件架构落后?

研究人员分析指出,DeepSeek当前仍大范围部署在A100显卡集群上。这类GPU虽强,但在能耗效率方面明显落后于近两年上市的NVIDIA H100。

而GPT-4o(即OpenAI最新模型)尽管参数更多、推理能力更强,但依托于H100架构,单位电能利用效率远高于A100。

也就是说,DeepSeek的高耗能,并不是因为模型复杂,而是因为硬件落后


二、水耗篇:你的一条提示,可能喝掉了一瓶水

研究同时发现,AI模型不仅耗电,更耗水。冷却数据中心GPU的过程中,需要大量循环水来维持服务器运行温度。

例如:

  • ChatGPT-4o每次提示消耗的冷却水,可达到 120毫升 左右;
  • 按OpenAI 700,000,000次/天请求量推算,年总水耗相当于 120万人一年的饮水需求

DeepSeek虽未公布其推理请求总量,但考虑到其市场渗透率不断上升,其年水资源消耗保守估计亦在千万吨级别


三、碳排放篇:看不见的碳,最致命

通过模拟全球主流AI部署地(美国、欧洲、中国等)的电力碳排系数(kgCO₂/kWh),研究得出每条提示平均碳排放:

  • Claude 3.7 Sonnet:0.01 gCO₂
  • GPT-4o:0.02 gCO₂
  • DeepSeek主力模型:高达 0.08 gCO₂

换句话说,DeepSeek每次提示的碳排放,是Claude的 8倍,GPT-4o的 4倍

这不仅是硬件问题,也与其未针对“低碳AI”做软件调度优化有关。


四、综合生态效率排行榜TOP 5(长回答场景)

排名模型名称所属公司每次提示能耗(Wh)水耗(ml)碳排(g)综合评分(满分100)
🥇 1Claude 3.7 SonnetAnthropic5.3180.0196.2
🥈 2GPT-4oOpenAI8.7250.0292.5
🥉 3Gemini 1.5 FlashGoogle10.1320.0389.1
4DeepSeek主推模型DeepSeek33.2800.0864.7
5LLaMA 3 70BMeta28.5740.0766.4

五、未来趋势:绿色AI不是“口号”,是“生死线”

研究呼吁,所有AI公司必须:

  • 在产品官网公开每次推理的能耗与碳排估算;
  • 向用户提供“环保模式”选择,例如Claude计划推出低能耗Lite模型;
  • 优化API调用路径,减少重复请求,降低冗余资源消耗;
  • 降低服务器冷却用水,通过液冷替代蒸发式冷却技术。

总结:

从能源消耗、水资源使用,到碳足迹影响,这项研究为AI产业敲响了“环保警钟”。DeepSeek作为中国领先的AI公司,在能力指标上表现不俗,但在环保维度则需加快追赶步伐。

当AI能力成为标配时,生态效率或将成为下一轮AI竞争的“杀手锏”。谁能做到又快、又强、又环保,谁才是AI未来真正的王者。