英伟达近日宣布,其NVIDIA Blackwell平台已完成对DeepSeek-V4-Pro与DeepSeek-V4-Flash两款大模型的适配工作。开发者可通过NVIDIA NIM微服务直接下载部署,或基于SGLang、vLLM框架实现定制化推理,为AI应用开发提供更灵活的技术路径。
在模型参数配置上,DeepSeek-V4-Pro以1.6万亿总参数量与490亿激活参数的组合,专注于复杂推理场景;而DeepSeek-V4-Flash则采用2840亿总参数量与130亿激活参数的轻量化设计,主打高速响应需求。两款模型均支持百万级Token上下文窗口与最高38.4万Token的输出能力,可覆盖长文档分析、代码生成等核心应用场景,并采用MIT开源协议保障技术共享。
性能测试显示,DeepSeek-V4-Pro在NVIDIA GB200 NVL72集群上实现每用户每秒150个token的基准性能,通过vLLM框架的Day 0优化方案,可在Blackwell B300架构上快速完成部署。随着Dynamo编译器、NVFP4量化技术及CUDA内核的持续优化,模型推理效率有望进一步提升。
在部署生态构建方面,SGLang框架提供低延迟、均衡负载及最大吞吐量三种优化模式,满足不同场景的性能需求;vLLM框架则支持跨100个以上GPU节点的分布式推理,并集成工具调用与推测解码功能,为大规模AI服务提供技术支撑。这种多框架兼容的设计,显著降低了开发者将模型落地至生产环境的门槛。









