随着人工智能技术快速迭代,一个被严重忽视的风险正悄然崛起——它并非技术失控或AI“自我觉醒”的末日危机,而是企业价值的慢性侵蚀。尤其是DeepSeek事件再次将“提取型AI”的经济问题推向风口浪尖。
一、DeepSeek事件:一次模型之上的“知识套娃”
近日,中国AI公司DeepSeek被爆出疑似利用OpenAI的GPT-4o模型输出内容进行二次训练,这一行为引发全球范围的争议。根据OpenAI的声明,他们发现有迹象表明DeepSeek通过“蒸馏”方式吸收了其高端模型的知识结构。表面上看,这只是两家AI公司间的博弈,但深层次的问题却是:OpenAI的训练数据来自哪里?又是谁先开启了“知识掠夺”?
二、从GPT到DeepSeek:数据掠夺链条下的隐性受害者
OpenAI的模型之所以强大,是因为它汲取了大量未经授权的新闻稿、博客、论坛内容、小说、播客乃至YouTube视频转录内容。这些数据大多来自普通内容创作者,他们未曾得到报酬,也未获得任何形式的署名或权益。如今,DeepSeek被指模仿OpenAI的“成果”,但追溯源头,其本质仍是沿袭了“数据掠夺—AI生成—再掠夺”的路径。
三、劳动者权益被忽视:WGA罢工案例揭示AI真实危害
2023年,美国编剧协会(WGA)发起的罢工行动成为AI时代劳动者权益维护的里程碑。尽管此次罢工的焦点是串流平台的稿酬分配问题,但AI的应用却成为导致罢工持续时间延长的关键因素。最终协议中明确规定:企业不得使用AI改写、生成剧本内容,也不得将AI生成内容视作“创作来源”。
这实际上揭示了一个普遍趋势:企业并非使用AI来提升创作力,而是将其视为替代人工的工具——更快、更便宜,却牺牲了创造性与质量。
四、“提取型AI”:不是辅助,而是替代
从媒体、法律到设计与客服,AI的普遍应用正以“学习—替代—消耗”的形式进行。模型被训练于人类数十年的智慧积累之上,却反过来使这些行业的从业者被边缘化。例如:
- 客服领域:AI模型学习真实客户沟通话术,却无法重现人类的同理心与判断力,导致用户体验下降;
- 媒体行业:记者的稿件成为训练材料,但内容原创性与专业性被削弱;
- 教育行业:教材与教师讲义成为AI的基础,却最终导致教师岗位被削减。
这种**“以人类劳动为燃料,再反过来替代人类”的循环模式**,是一种系统性的经济风险。
五、经济学家的警示:AI正加速不平等与收入压缩
诺贝尔经济学奖得主Daron Acemoglu与Simon Johnson早已提出警告:“提取型AI”并不能推动整体生产率增长,反而加剧贫富差距,压低工资水平,并降低就业岗位质量。尤其是在没有补偿机制、没有权利归属的前提下,AI实际上是在“掠夺劳动成果”,而非“赋能产业转型”。
六、企业风险:声誉、合规与人才流失三重打击
对于企业而言,盲目追求AI替代速度而忽视创作权与知识产权,最终可能陷入以下三大困局:
- 法律风险:越来越多内容创作者与新闻机构正在提起版权诉讼;
- 声誉风险:公众对“AI侵权”“剽窃”行为的容忍度在下降;
- 人才流失:真正的专业人才不愿在被替代、被剥削的体系中继续工作。
尤其是在以人力为核心竞争力的行业,过度依赖AI,不但不会降低成本,还可能导致品牌价值崩塌。
七、DeepSeek事件背后的商业启示
DeepSeek的行为之所以引发广泛关注,正是因为它代表了一种“知识再提取”的典型模式:AI训练AI,而每一层“进化”都建立在前人未授权的劳动之上。这种模式短期内可能提升效率,但从长期来看,其可持续性极低。
企业若继续沿用这一路径,不仅会受到监管机构的警惕,更可能在全球范围内面临“创作生态破坏者”的负面标签。
八、未来方向:尊重人类创造,才能让AI真正增值
真正的AI进化路径不是“替代人类”,而是“增强人类”。企业若想在AI大潮中立于不败之地,必须做到:
- 明确内容使用许可,尊重创作者的知识产权;
- 投资建设人机协作系统,提升员工使用AI的能力;
- 建立透明的AI内容溯源与使用机制,增强公众信任;
- 参与AI伦理治理,制定行业标准,防止“数据黑箱”。
只有这样,企业才能打造出真正可持续、具有人文价值的AI生态。
九、结语:别押注提取型AI,那不是一门好生意
回顾DeepSeek事件,不难发现一个真相:提取型AI不是“生产力革命”,而是一场“价值重分配”的游戏,且规则对创作者极不友好。在接下来的十年里,决定AI赢家的,不是速度,而是是否能构建一个以“人”为核心、尊重创作与人才的智能体系。
提取不是未来,合作才是正道。