随着大型语言模型(LLMs)的广泛应用,其对环境的影响正逐渐受到全球关注。尽管各大厂商乐于展示其模型在各种基准测试中的性能优势,但它们鲜少披露模型运行背后的能源、水资源和碳排放等环境数据。
不过,最近一项发布在康奈尔大学预印本平台 arXiv 上的新研究,为我们揭示了AI模型在使用过程中对环境的实际影响,并首次提出了一个以“生态效率”(eco-efficiency)为核心的推理评估方法。这项研究由美国罗德岛大学(University of Rhode Island)、普罗维登斯学院(Providence College)以及突尼斯大学(University of Tunis)的研究人员共同完成。
🧪研究方法:如何评估AI模型对环境的影响?
研究团队开发了全球首个“基础设施感知推理基准”(infrastructure-aware inference benchmark)。他们综合了以下三个关键因素:
- 模型API延迟数据
- 模型背后运行的GPU类型(A100、H100等)
- 地区电力网络结构(影响碳排放系数)
最终,他们将能耗、电耗、水耗以及碳排放统一整合,计算出每个模型的“单位提示环境成本”(per-prompt environmental footprint),并将其转换为一项整体“生态效率得分”。
💥结果震惊行业:OpenAI和DeepSeek模型能耗高居榜首
研究人员指出,在一次生成较长回答的情况下,OpenAI的o3模型和DeepSeek的主力推理模型消耗的能量均超过 33瓦时(Wh)。这一数值比OpenAI体积最小的GPT-4.1 nano模型 高出70倍以上。
DeepSeek模型的能耗,甚至超过了部分同类型模型。虽然官方从未公开详细的GPU架构及计算策略,但研究团队通过推断分析认为,DeepSeek当前推理服务仍可能依赖大量传统A100芯片,而非更节能的新一代H100。这种硬件差异,成为它高能耗的根本原因之一。
👑Anthropic的Claude 3.7 Sonnet成为最环保AI模型
相较之下,Anthropic公司开发的Claude 3.7 Sonnet模型,成为目前“生态效率”最高的AI模型。该模型不仅能耗低,而且运行效率高,受到了研究团队的高度评价。
研究人员特别强调,Claude系列的硬件优化做得尤为出色,避免了“以算力堆叠换能力”的高耗能路径。同时,Claude 3.7的运算过程经过特殊调度,大大降低了峰值能耗,提升了单位计算效率。
📉短提示也不环保?别小看你输入的每一句话!
值得注意的是,即便是用户输入的一条简短提示,也可能对环境造成显著影响。例如:
- OpenAI的GPT-4o模型,一次简单提问平均消耗约 0.43Wh;
- 据估计,OpenAI当前每天接收到的GPT-4o提示请求约为 7亿次;
- 按此计算,全年能耗约为 392至463 GWh,足够支撑 3.5万户美国家庭 一整年的用电需求。
研究第一作者Nidhal Jegham博士直言:“使用ChatGPT-4o一年的耗水量,相当于120万人一年的饮水需求。”
📌“看似微小,实则庞大”:环境代价正在放大
研究团队强调,AI模型对环境的影响,正在从“微观无感”逐步演变为“宏观压力”:
“从提示层面来看,这些消耗看似微不足道。但考虑到AI使用的急速增长,这种规模效应所带来的资源压力正在迅速扩大。”——Nidhal Jegham
以DeepSeek为例,其在部分平台日均推理请求量已接近千万级别,一旦规模继续扩大,势必带来更大能源与水资源压力。
🧠未来何去何从?节能AI模型或成新标准
面对高能耗的现实,不少研究人员呼吁:
- AI开发公司应 公开基础设施配置信息,包括GPU型号、电力来源等;
- 推广“绿色推理”标准,优先使用能耗更低的模型架构;
- 鼓励用户在日常使用中,尽量选择生态效率高的模型,如Claude 3.7 Sonnet;
- 提供能耗反馈功能,让用户意识到自己每次调用的“资源成本”。
🟢结语:DeepSeek与OpenAI需重塑“绿色AI”形象
随着AI渗透日常生活的各个角落,其环境影响不容忽视。DeepSeek等高能耗模型若想持续扩张市场份额,必须加快节能优化步伐;而用户与开发者也应承担起环保责任,推动“低碳智能”成为AI产业的新趋势。