前言:AI应用背后的“隐形代价”
在当下这个AI爆炸式发展的时代,各大语言模型不断刷新自然语言理解、代码生成、视频创作等多项能力指标,但鲜少有人关注它们背后巨大的环境代价。每一个你在ChatGPT或DeepSeek中输入的提示,背后都需要一整个GPU集群的高强度运算,而这运算,是需要电、水与碳足迹共同支撑的。
2025年春季,一项由罗德岛大学牵头的研究终于给出答案。他们用真实API响应速度、GPU运算逻辑、电网区域碳强度等参数,推导出了“每次提示所需资源消耗”,并整合成独创的“生态效率评分”。
这项研究涵盖了30个主流模型,包括OpenAI、Anthropic、Google、Meta、以及中国的DeepSeek。
一、能耗篇:DeepSeek为何成“电老虎”?
根据报告,OpenAI的o3模型与DeepSeek的旗舰推理模型,在生成一段长回答时,平均消耗 33瓦时(Wh)以上。而OpenAI旗下的轻量版GPT-4.1 nano模型,仅需不到0.5瓦时,相当于两者相差 70倍能耗差距。
背后原因:硬件架构落后?
研究人员分析指出,DeepSeek当前仍大范围部署在A100显卡集群上。这类GPU虽强,但在能耗效率方面明显落后于近两年上市的NVIDIA H100。
而GPT-4o(即OpenAI最新模型)尽管参数更多、推理能力更强,但依托于H100架构,单位电能利用效率远高于A100。
也就是说,DeepSeek的高耗能,并不是因为模型复杂,而是因为硬件落后。
二、水耗篇:你的一条提示,可能喝掉了一瓶水
研究同时发现,AI模型不仅耗电,更耗水。冷却数据中心GPU的过程中,需要大量循环水来维持服务器运行温度。
例如:
- ChatGPT-4o每次提示消耗的冷却水,可达到 120毫升 左右;
- 按OpenAI 700,000,000次/天请求量推算,年总水耗相当于 120万人一年的饮水需求。
DeepSeek虽未公布其推理请求总量,但考虑到其市场渗透率不断上升,其年水资源消耗保守估计亦在千万吨级别。
三、碳排放篇:看不见的碳,最致命
通过模拟全球主流AI部署地(美国、欧洲、中国等)的电力碳排系数(kgCO₂/kWh),研究得出每条提示平均碳排放:
- Claude 3.7 Sonnet:0.01 gCO₂
- GPT-4o:0.02 gCO₂
- DeepSeek主力模型:高达 0.08 gCO₂
换句话说,DeepSeek每次提示的碳排放,是Claude的 8倍,GPT-4o的 4倍。
这不仅是硬件问题,也与其未针对“低碳AI”做软件调度优化有关。
四、综合生态效率排行榜TOP 5(长回答场景)
排名 | 模型名称 | 所属公司 | 每次提示能耗(Wh) | 水耗(ml) | 碳排(g) | 综合评分(满分100) |
---|---|---|---|---|---|---|
🥇 1 | Claude 3.7 Sonnet | Anthropic | 5.3 | 18 | 0.01 | 96.2 |
🥈 2 | GPT-4o | OpenAI | 8.7 | 25 | 0.02 | 92.5 |
🥉 3 | Gemini 1.5 Flash | 10.1 | 32 | 0.03 | 89.1 | |
4 | DeepSeek主推模型 | DeepSeek | 33.2 | 80 | 0.08 | 64.7 |
5 | LLaMA 3 70B | Meta | 28.5 | 74 | 0.07 | 66.4 |
五、未来趋势:绿色AI不是“口号”,是“生死线”
研究呼吁,所有AI公司必须:
- 在产品官网公开每次推理的能耗与碳排估算;
- 向用户提供“环保模式”选择,例如Claude计划推出低能耗Lite模型;
- 优化API调用路径,减少重复请求,降低冗余资源消耗;
- 降低服务器冷却用水,通过液冷替代蒸发式冷却技术。
总结:
从能源消耗、水资源使用,到碳足迹影响,这项研究为AI产业敲响了“环保警钟”。DeepSeek作为中国领先的AI公司,在能力指标上表现不俗,但在环保维度则需加快追赶步伐。
当AI能力成为标配时,生态效率或将成为下一轮AI竞争的“杀手锏”。谁能做到又快、又强、又环保,谁才是AI未来真正的王者。