图片系AI生成
“服务器繁忙,请稍后再试。”这才是DeepSeek爆火之后输出最多的答案。
DeepSeek凭借算法优化显著降低了模型训练成本,如MoE架构、动态路由算法等,同时开源策略加速了大模型在垂直领域的渗透,由此带来了采用率的指数级增长,数据显示,DeepSeek的全球日活用户从34.7万飙升至1.19亿,仅用了一个月。
如何解决DeepSeek带来的算力焦虑,成了算力行业厂商的必答题,截至目前,包括昇腾、天数智芯、摩尔线程、壁仞科技、燧原科技、沐曦、海光等企业均已宣布适配DeepSeek。
据钛媒体App了解,国产芯片厂商的适配只是初级状态,达到了可用的程度,要想从更底层适配DeepSeek的算法,需要在FP8混合精度、多场景功耗平衡、软硬协同深度优化等方面持续投入。
DeepSeek导致算力分化:技术摸高与工程创新并行
业界专家表示,DeepSeek火爆之后,大模型呈现“技术摸高+工程创新”并行发展趋势,算力需求仍将持续增长。
技术摸高方面,头部企业坚定投入预训练基础模型创新,追逐Scaling Law,加速探索AGI。他们关注高效、稳定、开放的底座,极致性能、稳定可靠的AI集群,以及深度开放的平台和生态。
例如,Meta的AI投资从400亿美元增加到650亿美元,谷歌从525亿美元增加到750亿美元。同时,模型演进和技术迭代也在加速,如千问发布旗舰版模型Qwen 2.5 - Max,Google发布Gemini 2.0系列。
工程创新方面,新的范式降低了后训练和蒸馏的门槛,引发新一波的“百模千态”。企业关注便捷、易用、性价比的平台,兼顾成本与性能的蒸馏/微调方案,以及便捷的部署和敏捷业务上线。
在企业端(To B),各企业以冲刺方式接入DeepSeek获取流量。自R1发布后的20天内,国内外已有160多家企业集体接入DeepSeek。
在消费端(To C),用户呈爆炸式增长,超级APP快速出现,加速了LLM的全面普及。DeepSeek以现象级表现提升了社会对LLM的认知,促进了新商业模式的成型,实现了商业正循环。
因此,大模型算力也需要支撑同时支撑两方面的需求演进,具体来看,首先是,模型结构优化,用相同硬件支持更大的模型,提升模型的规模和性能。
其次是计算通信优化,提升算力利用率,缩短训练时间,让企业能够更高效地完成复杂的AI任务。
还有后训练优化,让企业无需大量标注数据,降低数据成本,同时通过强化学习等技术提升模型性能。
在推理优化层面,需要支持一次预测多个token,成倍提升推理效率,为企业提供更高效、更快速的AI应用体验。
据悉,绝大多数AI玩家需要依靠能够充分发挥有效算力的算力底座及完整的解决方案,实现高效训练和推理。稳定可靠的算力平台能够降低试错成本,让企业聚焦模型工程优化。
昇腾原生支持DeepSeek
钛媒体App获悉,DeepSeek发布V3之后,华为内部就启动了相关分析以及技术适配,并且发现,DeepSeek的技术路线和昇腾产品十分匹配。
例如MoE的架构,华为此前预判MoE是大模型的未来,到了R1发布,DeepSeek相当于“撸代码”的方式做强化学习,昇腾预研的开发强化学习套件,能够大幅简化强化学习过程。
据了解,昇腾是业界首个适配完成DeepSeek核心算法,支持DeepSeek全系模型预训练及微调的芯片平台,昇腾超节点支持DeepSeek全系模型预训练及微调,支持DualPipe、跨节点All2All等DeepSeek核心优化技术,超大带宽通信域更适合DeepSeek的流水线并行算法及冗余专家等能力。
同时,昇腾是业界唯一从预训练到微调全流程适配DeepSeek的AI训练平台,随着行业模型训练从SFT微调走向强化学习训练方式,昇腾提供DeepSeek R1模型及强化学习算法,结合提示工程及数据采样,可生成大量高质量合成数据。
昇腾联合伙伴/客户,推出了一体机、云服务、硬件+开源社区等产品形态,帮助企业快速部署,已覆盖互联网、金融、运营商、政务、教育等多个行业。其中,昇腾DS一体机超大系统吞吐,超高多用户并发,30+软硬件伙伴选择昇腾推出一体机方案。
据了解,目前各行业已有80多家客户/伙伴已基于昇腾快速适配/上线DeepSeek系列模型并对外提供服务,20多家企业适配测试中(预计两周内全部上线)。据一位接近昇腾的业内专家表示:“总体来说,国内70%的企业都基于昇腾快速上线。”(本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)
根据《网络安全法》实名制要求,请绑定手机号后发表评论