随着生成式 AI 工具在软件开发中的应用日益广泛,DeepSeek 因其强大功能和低门槛逐步流行于开发者社区。然而,安全专家已明确指出,这款 AI 工具存在诸多致命风险,尤其在国家安全、企业合规和数据隐私方面影响巨大。
AppSOC 安全团队分析显示,DeepSeek 极易遭受提示注入(prompt injection)攻击,其越狱能力甚至优于 ChatGPT。此外,它还被用于自动生成高级恶意代码和病毒程序。
更令人警惕的是,研究发现 DeepSeek 背后可能存在信息收集后门,可将数据传输至特定主权服务器。这使得 DeepSeek 不仅成为攻击工具,也成为信息泄露的温床。
此外,其加密机制落后,不符合当前主流的加密通信标准,极易被用于 SQL 注入攻击,造成用户敏感数据的大规模泄露。
开发者为何仍选择 DeepSeek?
- 功能强大:其 Coder 工具能快速生成复杂代码结构。
- 免费使用:相比其他付费 LLM,DeepSeek 免费提供强大功能。
- 使用门槛低:界面简洁,支持多语言,无需太多配置即可部署。
但正因为其“低门槛”,也让它容易被非法使用,成为“影子 IT”的代表。很多开发人员绕过公司网络安全限制,自行安装使用,从而将潜在后门代码引入企业主代码库中。
企业应立即采取应对措施
为防范 DeepSeek 带来的隐患,安全专家建议:
- 引入沙盒环境测试机制
使用如 Tor Browser 等安全浏览器进行隔离测试,避免信息在测试中外泄。 - 设定 AI 工具使用准入制度
所有 AI 工具需通过企业审查、合规评估后方可部署使用。 - 建立安全培训机制
面向开发人员开展生成式 AI 安全风险培训,提高其风险识别与应对能力。 - 加强源代码安全扫描
引入自动化代码审计系统,实时检测由 AI 工具生成的代码是否包含风险片段。 - 监控所有 AI 工具通信链路
包括 DNS、API 调用、远程服务器连接行为,防止非授权数据流出。
安全不是“禁用 AI”,而是“用得其所”
完全禁止 AI 工具使用并非现实选择,特别是 DeepSeek 这类“开源”工具,其传播范围与使用频率极高。更可行的方式是:
- 制定“AI 工具白名单”制度;
- **强制使用 VPN 或 Tor Browser 等匿名化工具进行敏感数据调试;
- 赋能安全开发者,让其引导团队安全使用 AI 工具;
- 设立 AI 安全审查委员会,对所有新接入工具做专项评估。
写在最后
DeepSeek 是 AI 发展的缩影:技术令人兴奋,潜在风险同样巨大。其广泛被使用的事实也反映出现阶段企业对生成式 AI 缺乏监管与技术应对机制。
安全团队应尽快行动,在开发者“未感知风险前”,通过教育与系统管控堵住安全漏洞。只有这样,企业才能在利用 AI 提升效率的同时,真正保护好自身的数据与资产安全。