春节长假甫一结束,云计算领域在资本市场意外“走红”,但此番引领风潮的并非阿里云、腾讯云等业界巨头,而是中小云服务商。
青云科技自2月5日至2月12日,连续六个交易日实现“20cm”涨停,股价从34.07元/股飙升至101.72元/股,并在2月14日一度摸高至115.31元/股。同样,长期表现低迷的优刻得也在春节后迎来暴涨,期间四次收获“20cm”涨停,八个交易日内股价累计涨幅高达177%,市值攀升至173亿元。港股金山云自2024年9月的低点至2025年2月14日,股价也飙升超八倍。
这些中小云服务商曾长期在生死边缘徘徊,业绩不振,持续亏损。然而,随着DeepSeek R1的发布及开源,大模型的训练和部署成本大幅降低,AI应用需求激增,不仅让这些中小云服务商在资本市场大放异彩,也真正踏入了AI大模型的竞技场。
大模型无疑是云服务商的“流量入口”,云服务商也是大模型推广应用的直接受益者。相较于中小云服务商,算力资源更为充沛的云巨头在大模型赛道的布局更为激进且全面。客户在使用DeepSeek等模型时会消耗算力、数据,进而带动其他基础云产品(计算、存储、网络、数据库、软件)的销售。
自DeepSeek年初爆火以来,除了中小云服务商,阿里云、华为云、腾讯云、火山引擎、百度智能云以及电信运营商的天翼云、移动云、联通云等也都迅速上架了DeepSeek。DeepSeek的出现,为中小云服务商提供了一个借助新技术翻身的机会,尽管对当前云计算市场格局影响不大,但从流量角度看,中小云服务商确实从云巨头手中抢占了部分流量,尤其是在中小企业和个人用户群体中,中小云服务商的性价比更高。
然而,从整体云计算市场来看,随着越来越多公有云服务商拥抱DeepSeek,算力资源站在了同一起跑线上,竞争转而聚焦于算力池的深度和用户覆盖的广度。大模型虽是云服务商的“流量入口”,但最终决定胜负的是大模型产业落地的深度与厚度。从当前情况来看,云巨头的优势无疑更加明显。
同时,DeepSeek的“低成本”也引发了新一轮的价格战。云服务商们需警惕,越来越低廉的价格最终可能让MaaS(模型即服务)服务陷入SaaS(软件即服务)的陷阱。
“此前云主要是围绕CPU建设,GPU只是辅助,如今GPU已成为独立的业务板块。”云铀科技CTO王为表示,“这块业务主要帮助客户管理、运维算力。”经过多年发展,以CPU为主的云计算已相当成熟,无论是大型云服务商还是中小云服务商,大多基于CPU提供云端算力服务。但在AI大模型时代,CPU已无法满足大模型预训练的算力需求,GPU逐渐成为主流应用芯片,以GPU起家的英伟达也因此大放异彩。
相比之下,云巨头在GPU赛道的布局更早,投入更多。2016年前后,深度学习技术快速发展,对GPU需求激增,此时阿里云、腾讯云等云巨头就已开始加大在GPU领域的投入,扩充GPU服务器规模,并推出系列GPU云服务产品。而中小云服务商受限于资金实力等因素,大规模布局GPU赛道的时间较晚,主要集中在2022年底后,同时也伴随着国产GPU芯片的崛起。
这导致中小云服务商普遍存在高端算力显卡紧缺的问题,缺乏大规模、高性能算力集群,无法为大型客户提供相关算力服务,尤其是以做大模型预训练为主的客户群体。中小云服务商过去以CPU为主导的业务基础和技术积累,很难直接转型为智算服务,毕竟中小云服务商本身并未积累足够的GPU技术实力,加之现阶段GPU整体技术栈发展还不成熟,所以中小云服务商也很难像云巨头一样提供全方位、一站式AI云服务解决方案,在AI训练阶段能做的事情非常有限。
正因如此,在此前的大模型赛道中,中小云服务商并未真正进入AI大模型服务的“竞技场”,仅触及大模型赛道的边缘业务。然而,DeepSeek的火爆却为中小云服务商提供了入场的机会。
2025年初,DeepSeek提出了“四两拨千斤”的技术路径,声称仅用2048张英伟达H800芯片和550万美元训练成本就训练出与OpenAI旗舰模型性能相近的模型,且训练成本仅为其他巨头的数十分之一,推理算力成本仅为GPT-o1的1/30。同时,相较于其他大模型,DeepSeek的智能蒸馏技术等也让AI推理突破了硬件限制,部署成本从高端GPU扩展到消费级GPU,并适配了众多国产GPU芯片。
这使得中小云服务商无需大量投入高端算力硬件,仅依靠国产GPU芯片就能为客户提供AI服务。在算力集群资源方面,原本百卡级别的算力集群大多难以满足大模型推理应用的需求,且很多企业囤积了几十至百卡级别的算力资源,导致出现大量闲置的算力集群。但借助DeepSeek技术的优化和加速,原本难以处理的任务现在百卡级别算力就能完成,提升了小规模卡集群的经济价值,让中小云服务商能更高效利用有限算力资源,为客户提供服务。
更为重要的一点是,DeepSeek各大模型API定价相当便宜。例如,DeepSeek-R1的API定价为每百万输入tokens 1元(缓存命中),每百万输出tokens 16元,而OpenAI的o3-mini的输入(缓存命中)、输出每百万tokens的定价分别为0.55美元(约4元人民币)、4.4美元(约31元人民币)。近期结束了优惠期的DeepSeek-V3,虽然价格有所上调,但仍低于其他主流模型。
便宜好用的DeepSeek推动了越来越多的中小企业和个人使用云服务部署运行AI模型。小型AI应用迎来井喷式发展,也让更多的中小企业以及个体用户选择更具灵活性和性价比的中小云服务商提供的服务模式,为中小云服务商带来大量业务机会和广阔市场空间。
过去因无力承担高昂算力成本,在大模型服务领域难以涉足的中小云服务商,如今能够借助DeepSeek技术,以较低成本开展相关业务,拓展至具有更高利润的AI算力服务市场,拥有了弯道超车的机会。
对训练卡量不多的中小云服务商而言,DeepSeek的训练逻辑为其提供了迈入AI大模型服务领域的机会,并借此实现营收新增长。而对于云巨头来说,除“蹭流量”之外,更重要的是云生态之战及争夺未来AI基础设施的话语权。因此,各云巨头除在MaaS层部署了DeepSeek大模型服务外,从底层基础设施到上层应用,基本全线适配了DeepSeek大模型产品。
业内人士表示,尽管云服务商们纷纷接入DeepSeek,但真正的较量不在接入名单,而在模型与云架构的深度适配。只有确保DeepSeek大模型在自家云平台上能得到比其他平台上更加优异的性能与效率,更好地兼容软硬件平台,避免过多资源消耗,才能吸引更多企业和开发者进入自己的云生态体系。
在此过程中,各云巨头基于自身核心优势,采取了不同的发展路径,实现差异化打法。百度智能云主打性价比及全方位服务,推出了行业领先的超低价格方案,并基于昆仑芯P800打造的万卡集群,为部署DeepSeek的企业提供更高的算力支持。同时,百度智能云正加速推进各行业应用产品与DeepSeek模型的适配验证工作。
华为云则以昇腾云服务绑定国产算力链,国产算力服务商硅基流动大模型云服务平台SiliconCloud上线了基于华为云昇腾云的满血版DeepSeek-R1&V3,率先走通在国产芯片部署DeepSeek模型的路径,降低模型推理时间与成本,获得与全球高端GPU部署模型相当的效果。
阿里云通过“零代码”流程覆盖全生命周期,支持一键部署DeepSeek-V3、DeepSeek-R1,用户无需编写繁琐的代码,即可实现从训练到推理的全流程。阿里云还表示,为了更高性价比地实现DeepSeek系列模型与现有业务的高效融合,用户还可部署蒸馏过后的DeepSeek-R1-Distill-Qwen-7B。
腾讯云则以“3分钟部署”强化开发者友好性,宣布DeepSeek-R1大模型一键部署至腾讯云HAI上,开发者仅需3分钟就能接入调用。近日,腾讯云TI平台可支持DeepSeek全系模型的企业级精调与推理,帮助开发者更好地解决数据预处理难、模型训练门槛高、在线部署及运维复杂等问题。
虽然云巨头们接入开源大模型产品的路径不尽相同,但最终核心目标都是通过降低企业AI部署门槛,争夺开发者生态与客户增量。云平台的本质是卖算力、卖服务,定位是“开放生态”,云服务商们都希望能够尽可能多地吸引客户进入生态中,从而带动更多算力消耗以及云产品的服务销售。