DeepSeek-R1 模型现已在 AWS 上可用

在今年的 AWS re:Invent 大会上,Amazon CEO Andy Jassy 分享了 Amazon 在开发近 1000 款生成型 AI 应用时获得的宝贵经验。通过这些大规模的 AI 部署,Jassy 提出了三条关键观察结论,这些结论塑造了 Amazon 在企业 AI 实施方面的方法。

首先,当生成型 AI 应用规模化时,计算成本至关重要。人们对更好的性价比有强烈的需求。其次,构建一款真正优秀的生成型 AI 应用其实非常困难。第三,使用不同模型的多样性也至关重要。当我们给构建者自由选择时,看到他们选择多种不同模型的情况并不令人惊讶,因为我们不断学习到同一个教训:永远不会有一个工具能够统治所有领域。

正如 Andy 强调的那样,Amazon 提供了丰富而深入的模型选择,能够让客户根据自己的独特需求选择最合适的能力。通过紧跟客户需求和技术进步,AWS 定期扩展其精心挑选的模型系列,将有潜力的新模型与已建立的行业领导者一同提供。这个高效且不断创新的模型扩展,帮助客户始终走在 AI 创新的前沿。

这就是我们要谈论的 DeepSeek,这家中国的 AI 初创公司在 2024 年 12 月推出了 DeepSeek-V3,并随后在 2025 年 1 月 20 日发布了 DeepSeek-R1DeepSeek-R1-ZeroDeepSeek-R1-Distill 三款模型,这些模型的参数范围从 1.5 亿到 670 亿不等。随后,在 2025 年 1 月 27 日,DeepSeek 又发布了其面向视觉的 Janus-Pro-7B 模型。这些模型目前已公开发布,并且据 DeepSeek 称,它们的成本比同类模型便宜 90% 到 95%,在性价比上具有明显优势。DeepSeek 声明,其模型通过创新的训练技术(如强化学习)实现了卓越的推理能力。

如今,您可以在 Amazon BedrockAmazon SageMaker AI 上部署 DeepSeek-R1 模型。Amazon Bedrock 适合需要快速通过 API 集成预训练基础模型的团队;而 Amazon SageMaker AI 则更适合那些希望进行高级定制、训练和部署的组织,同时还可以访问底层基础设施。此外,您还可以使用 AWS TrainiumAWS Inferentia 以成本效益高的方式,通过 Amazon Elastic Compute Cloud (Amazon EC2)Amazon SageMaker AI 部署 DeepSeek-R1-Distill 模型。

借助 AWS,您可以使用 DeepSeek-R1 模型,构建、实验并负责地扩展您的生成型 AI 创意,利用这个强大且高效的模型,您几乎不需要过多的基础设施投资即可开始。同时,AWS 提供的独特安全设计也能帮助您在构建应用时增强安全性。我们强烈建议您将 DeepSeek-R1 模型的部署与 Amazon Bedrock Guardrails 集成,为您的生成型 AI 应用提供额外的保护层,确保应用的安全与合规性。

如何在 AWS 上部署 DeepSeek-R1 模型

今天,您可以通过以下几种方式在 AWS 上部署 DeepSeek-R1 模型:

  1. Amazon Bedrock Marketplace 中的 DeepSeek-R1 模型
  2. Amazon SageMaker JumpStart 中的 DeepSeek-R1 模型
  3. Amazon Bedrock Custom Model Import 中的 DeepSeek-R1-Distill 模型
  4. 使用 AWS Trainium 和 AWS Inferentia 部署 DeepSeek-R1-Distill 模型

接下来,我将向您介绍这些路径,帮助您根据团队的专业知识和需求,选择合适的入门方式。

1. 在 Amazon Bedrock Marketplace 中部署 DeepSeek-R1 模型

Amazon Bedrock Marketplace 提供了超过 100 款流行的基础模型,涵盖了多个领域和专业模型,同时也包含了当前行业领先的模型。您可以在单一目录中轻松发现模型,订阅该模型,并通过托管的终端节点部署它。

要在 Amazon Bedrock Marketplace 中访问 DeepSeek-R1 模型,首先进入 Amazon Bedrock 控制台,选择“基础模型”部分下的模型目录。您可以通过搜索或筛选模型提供商,快速找到 DeepSeek

在模型详情页面查看模型的功能和实施指南后,您可以通过提供终端节点名称、选择实例数量和选择实例类型来直接部署模型。

此外,您还可以配置高级选项来定制 DeepSeek-R1 模型的安全性和基础设施设置,包括 VPC 网络、服务角色权限和加密设置。在生产部署时,您应当审查这些设置,以确保符合组织的安全和合规要求。

通过 Amazon Bedrock Guardrails,您可以独立评估用户输入和模型输出,确保生成型 AI 应用的安全性。DeepSeek-R1 模型只能与 Bedrock 的 ApplyGuardrail API 一起使用,以评估自定义和第三方模型的用户输入和模型响应。

2. 在 Amazon SageMaker JumpStart 中部署 DeepSeek-R1 模型

Amazon SageMaker JumpStart 是一个机器学习(ML)中心,提供了基础模型、内建算法和预构建的 ML 解决方案,您只需轻点几下即可部署 DeepSeek-R1 模型。

在 Amazon SageMaker AI 控制台中,打开 SageMaker Studio,选择 JumpStart,并在“所有公开模型”页面中搜索“DeepSeek-R1”。

选择模型后,您可以选择部署并创建默认设置的终端节点。当终端节点处于“InService”状态时,您可以向其发送请求进行推理。

3. 使用 Amazon Bedrock Custom Model Import 部署 DeepSeek-R1-Distill 模型

通过 Amazon Bedrock Custom Model Import,您可以将自定义模型与现有的基础模型一起导入,并通过单一的无服务器统一 API 使用,无需管理底层基础设施。您可以将 DeepSeek-R1-Distill 模型导入 Amazon Simple Storage Service (Amazon S3) 存储桶或 Amazon SageMaker Model Registry 后,通过 Amazon Bedrock 控制台导入和部署它们。

4. 使用 AWS TrainiumAWS Inferentia 部署 DeepSeek-R1-Distill 模型

您可以使用 AWS Deep Learning AMIs(深度学习 AMI)在多种 EC2 实例上部署 DeepSeek-R1-Distill 模型,包括从小型 CPU 实例到高性能多 GPU 实例的各种配置。


总结

无论您是初次接触 AI 应用,还是想要扩展现有的解决方案,AWS 提供的灵活选项使得 DeepSeek-R1 模型可以轻松部署和扩展。无论是通过 Amazon Bedrock 还是 Amazon SageMaker,AWS 为您提供了一个安全、可扩展且高效的环境,助力您在生成型 AI 的领域中走在前沿。立即试用 DeepSeek-R1 模型,开启您的 AI 创新之旅吧!