ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

DeepSeek连发大招:开源优化策略,英伟达R1模型推理速度飙升25倍

时间:2025-02-27 15:44:22来源:证券时报e公司编辑:快讯团队

近期,人工智能领域迎来了一系列重要进展,其中DeepSeek公司的动作尤为引人注目。该公司宣布了一项重大决定——将其优化并行策略(Optimized Parallelism Strategies)进行开源,这一策略旨在提升计算效率,减少资源浪费,并最大化系统性能。

据DeepSeek介绍,该优化并行策略是一套精心设计的并行计算方案,适用于多核、分布式或异构系统。它通过合理分配任务、协调资源利用以及减少通信开销,实现了高效并行执行,为人工智能模型的训练和推理提供了强有力的支持。

不仅如此,DeepSeek还宣布了其另一项重要成果——与英伟达合作,在Blackwell架构上优化的DeepSeek-R1模型。这一新模型在推理速度上实现了25倍的提升,同时每token成本降低了20倍,标志着英伟达在人工智能领域的又一次重大突破。

DeepSeek的开源行动并未止步于此。在此之前,该公司已经将DeepEP向公众开放,这一Expert Parallelism通信基础专为MoE模型的训练和推理而设计。DeepEP能够实现高效优化的全到全通信,支持低精度计算,并对非对称带宽转发场景进行了深度优化,从而在训练和推理任务中展现出卓越的性能。

为了进一步提升用户体验,DeepSeek还推出了错峰优惠活动。在北京时间每日00:30至08:30的夜间空闲时段,DeepSeek开放平台的API调用价格大幅下调,DeepSeek-V3降至原价的50%,DeepSeek-R1更是降至25%。DeepSeek鼓励用户充分利用这一时段,享受更经济、更流畅的服务。

此次优惠活动正值DeepSeek的“开源周”。在这一周内,DeepSeek连续开源了多个重要代码库。首个开源的是针对Hopper GPU优化的FlashMLA,随后是用于MoE模型训练和推理的开源EP通信库DeepEP,以及一个支持密集和MoE GEMM的FP8 GEMM库,为V3/R1的训练和推理提供了有力支持。

英伟达也在这一领域取得了显著进展。通过应用TensorRT DeepSeek优化,英伟达在Blackwell架构上实现了具有FP4生产级精度的模型,该模型在MMLU通用智能基准测试中达到了FP8模型性能的99.8%。目前,英伟达基于FP4优化的DeepSeek-R1检查点已经在Hugging Face上开源,用户可以通过相关链接访问这一模型。

在后训练量化方面,DeepSeek也取得了重要突破。该模型将Transformer模块内的线性算子的权重和激活量化到了FP4,适用于TensorRT-LLM推理。这一优化不仅减少了每个参数的位数,从8位降低到4位,还使得磁碟空间和GPU显存的需求减少了约1.6倍,为人工智能模型的部署和应用提供了更加经济、高效的选择。

更多热门内容