DeepSeek引发安全震荡:警惕AI工具中的后门与隐私泄露风险

随着生成式 AI 工具在软件开发中的应用日益广泛,DeepSeek 因其强大功能和低门槛逐步流行于开发者社区。然而,安全专家已明确指出,这款 AI 工具存在诸多致命风险,尤其在国家安全、企业合规和数据隐私方面影响巨大。

AppSOC 安全团队分析显示,DeepSeek 极易遭受提示注入(prompt injection)攻击,其越狱能力甚至优于 ChatGPT。此外,它还被用于自动生成高级恶意代码和病毒程序。

更令人警惕的是,研究发现 DeepSeek 背后可能存在信息收集后门,可将数据传输至特定主权服务器。这使得 DeepSeek 不仅成为攻击工具,也成为信息泄露的温床。

此外,其加密机制落后,不符合当前主流的加密通信标准,极易被用于 SQL 注入攻击,造成用户敏感数据的大规模泄露。


开发者为何仍选择 DeepSeek?

  • 功能强大:其 Coder 工具能快速生成复杂代码结构。
  • 免费使用:相比其他付费 LLM,DeepSeek 免费提供强大功能。
  • 使用门槛低:界面简洁,支持多语言,无需太多配置即可部署。

但正因为其“低门槛”,也让它容易被非法使用,成为“影子 IT”的代表。很多开发人员绕过公司网络安全限制,自行安装使用,从而将潜在后门代码引入企业主代码库中。


企业应立即采取应对措施

为防范 DeepSeek 带来的隐患,安全专家建议:

  1. 引入沙盒环境测试机制
    使用如 Tor Browser 等安全浏览器进行隔离测试,避免信息在测试中外泄。
  2. 设定 AI 工具使用准入制度
    所有 AI 工具需通过企业审查、合规评估后方可部署使用。
  3. 建立安全培训机制
    面向开发人员开展生成式 AI 安全风险培训,提高其风险识别与应对能力。
  4. 加强源代码安全扫描
    引入自动化代码审计系统,实时检测由 AI 工具生成的代码是否包含风险片段。
  5. 监控所有 AI 工具通信链路
    包括 DNS、API 调用、远程服务器连接行为,防止非授权数据流出。

安全不是“禁用 AI”,而是“用得其所”

完全禁止 AI 工具使用并非现实选择,特别是 DeepSeek 这类“开源”工具,其传播范围与使用频率极高。更可行的方式是:

  • 制定“AI 工具白名单”制度
  • **强制使用 VPN 或 Tor Browser 等匿名化工具进行敏感数据调试;
  • 赋能安全开发者,让其引导团队安全使用 AI 工具
  • 设立 AI 安全审查委员会,对所有新接入工具做专项评估。

写在最后

DeepSeek 是 AI 发展的缩影:技术令人兴奋,潜在风险同样巨大。其广泛被使用的事实也反映出现阶段企业对生成式 AI 缺乏监管与技术应对机制。

安全团队应尽快行动,在开发者“未感知风险前”,通过教育与系统管控堵住安全漏洞。只有这样,企业才能在利用 AI 提升效率的同时,真正保护好自身的数据与资产安全。