DeepSeek 致谢腾讯技术团队:“巨大的加速” 代码贡献。
据新浪报道,腾讯技术团队针对 DeepSeek 开源的 DeepEP 通信框架进行深度优化,使其在多种网络环境下均实现显著性能提升。
经测试,优化后的通信框架性能在 RoCE 网络环境提升 100%, IB 网络环境提升 30%,为企业开展 AI 大模型训练提供更高效的解决方案。
该技术方案获得了 DeepSeek 公开致谢,称这是一次“huge speedup(巨大的加速)”代码贡献。
据了解,自今年 2 月 DeepSeek 开源包括 DeepEP 在内的五大代码库以来,该团队便向业界展示了如何利用有限的硬件资源实现接近万卡集群的性能。
在这些技术中, DeepEP 凭借突破性的方法提升了 300%的通信效率,成功解决了 MoE 架构大模型对英伟达 NCCL 的依赖问题。但该技术在成本较低、适用面更广的 RoCE 网络环境中表现不佳,限制了其在更广泛场景的应用。这一痛点引发了开源社区的持续讨论。
据悉,腾讯星脉网络团队在 DeepEP 开源后便展开技术攻关,发现两大关键瓶颈:一是对于双端口网卡带宽利用率不足,二是 CPU 控制面交互存在时延。
在腾讯的技术优化下, DeepEP 不仅在 RoCE 网络实现性能翻倍,反哺到 IB(InfiniBand)网络时更使原有通信效率再提升 30%。
目前,该技术已全面开源,并成功应用于腾讯混元大模型等项目的训练推理,在腾讯星脉与 H20 服务器构建的高性能环境中,这套方案展现出出色的通用性。