DeepSeek在中国医疗系统的迅速扩展引发安全与伦理担忧

自2025年1月DeepSeek推出其开源大型语言模型(LLM)以来,该技术已迅速在中国300多家医院中得到应用,涵盖诊断支持、病历生成和患者咨询等多个领域。

快速部署背后的推动力

DeepSeek的成功得益于其低成本、高性能和开源策略,使得各级医疗机构能够快速集成其AI模型。例如,长春的吉林大学医院利用DeepSeek开发了诊断工具,结合医院数据库和医疗指南生成治疗方案。此外,深圳福田区推出了基于DeepSeek的AI代理,用于执法文书的生成。金融时报

医疗专家的警示

尽管DeepSeek的应用带来了效率提升,但医疗专家对其潜在风险表示担忧。清华大学医学院创始院长王天银等研究人员在《美国医学会杂志》(JAMA)上发表论文,指出DeepSeek可能生成“看似合理但实际上错误”的输出,可能导致“重大的临床风险”。他们强调,在医疗决策中,AI应作为辅助工具,而非替代医生的判断。

数据隐私与伦理问题

DeepSeek的开源性质虽然促进了其广泛应用,但也引发了数据隐私和伦理方面的担忧。根据其隐私政策,用户生成的内容可能被用于模型的进一步训练,且用户无法选择退出这一机制。这在医疗领域尤其敏感,因为涉及患者的个人健康信息。PMC

监管与合规挑战

中国政府对AI在医疗领域的应用持支持态度,但也设立了相应的监管框架。例如,湖南省禁止AI独立开具处方,强调必须有合格的医疗人员在场。此外,DeepSeek在处理敏感话题时存在自我审查机制,这可能影响其在国际市场的接受度。维基百科

结语

DeepSeek在中国医疗系统的快速扩展展示了AI技术在提升医疗服务效率方面的巨大潜力。然而,确保其输出的准确性、保护患者隐私以及建立明确的监管框架,是实现其可持续发展的关键。