一、FLOPs门槛无法衡量AI实际风险
我们常以为“更大的模型”、“更强的算力”就意味着“更高的风险”,但现实并非如此。
以DeepSeek为例,这是一个2023年末发布的开源语言模型,虽然其训练FLOPs不到GPT-4的五分之一,却在多个基准测试上达到甚至超过GPT-4的水平。这说明,算力小≠能力弱。
而如果以FLOPs作为唯一监管标准,那么像DeepSeek这样的模型将完全逃脱监管视线,哪怕它可能被滥用于各种领域。
二、小模型也能造成巨大社会危害
我们来看一个真实的例子:荷兰福利欺诈预测系统。
- 荷兰政府用一个极其简单的模型来预测谁可能骗取儿童抚养补贴。
- 这个模型不需要大算力、没有深度学习,不会触发任何FLOPs门槛。
- 但它造成了灾难性的后果:成千上万个家庭被误判为欺诈者,其中大多数是移民或少数族裔,造成严重的心理创伤和财务打击。
这个例子说明:AI风险的根源往往不是技术本身,而是它如何被使用,在哪些制度中运行。
三、FLOPs监管流行背后的逻辑与误区
✅ 技术层面看,FLOPs门槛有一定道理:
- 它是少数几个可以准确衡量AI“潜力”的量化指标。
- 对于刚接触AI政策的监管机构或公众来说,FLOPs是一个“容易抓住”的点。
❌ 但这也带来了几个重大误区:
1. 监管关注错位:
FLOPs的监管方式让人误以为只有“超级大模型”才需要监管,从而忽视了已经大规模部署、并造成实际伤害的小模型。
2. 责任转移:
以FLOPs为标准,把监管责任推给“那些搞AGI的大公司”,忽略了那些真正利用小模型做决策的政府或企业。
3. “技术末日论”主导叙事:
AI监管话语被“未来超级AI威胁”所主导,反而忽视了今天正在发生的结构性不公、自动化偏见和透明度缺失。
四、我们需要更好的监管思路
我们不能再拿FLOPs来当AI风险的“替罪羊”了。监管的出发点必须从“人”出发,从“社会影响”出发。
以下是更有效的替代方向:
✅ 1. 基于实际用途和部署场景进行分类监管
- 在司法、医疗、教育、公共政策等高风险领域部署AI,无论算力大小,都应该进入监管视野。
- 哪怕是一个低算力模型,只要影响到人的权利、自由和福祉,就应受到严格审查。
✅ 2. 建立“以人为中心”的风险评估标准
- 不再仅看技术参数,而要问:
- 模型是否透明可解释?
- 使用者是谁?有没有滥权风险?
- 是否存在偏见或歧视的倾向?
- 是否影响了边缘群体的权益?
✅ 3. 推动跨学科参与
- 让社会学家、人权组织、伦理学者、法学专家和受影响群体参与AI监管框架的制定。
- 不能再让技术人员一言堂,也不能让监管者被技术语言吓退。
五、结语:监管AI,不要再“只看表面功夫”了
以FLOPs为代表的算力门槛,固然为AI监管提供了初步工具,但它只是冰山一角。如果我们继续只看FLOPs,就会漏掉那些真正正在改变社会结构、影响数百万普通人生活的AI系统。
真正值得监管的,是“AI如何被用”,而不是“AI用了多少算力”。