界面新闻记者 | 李彪
界面新闻编辑 | 文姝琪
持续五天的“DeepSeek开源周”刚结束,DeepSeek团队就在国内知乎平台注册官方账户,并在3月1日当天发布了第一条动态。这篇最新的帖子首次对外公布模了型的优化技术细节、成本利润率等关键信息。
这篇帖子最吸引眼球的一个结论是,按DeepSeek测算,假定GPU租赁成本为2美元/小时,总成本为8.7万美元/天。如果统计包括网页、App和API在内的所有负载,将所有模型tokens全部按照DeepSeek-R1的定价(DeepSeek R1 的定价:$0.14 / 百万输入 tokens (缓存命中),$0.55 / 百万输入 tokens (缓存未命中),$2.19 / 百万输出 tokens)计算,理论上一天的总收入为5.62万美元,算下来成本利润率为545%。
高达545%的利润率意味着什么,又会给行业带来了怎样的影响?界面新闻采访了复旦大学计算机科学技术学院教授张奇,他的研究方向为自然语言处理、信息检索 、数据密集型计算。
在自然语言处理中,Token是语言文本被分割后的基本单位,每个用户向AI提问并获取回答,问题及答案的文本长度对应数量不等的Token。AI处理每个Token都需要消耗算力。此外,还存在命中缓存与否的情况,命中缓存指用户向AI提问涉及的相关数据已存在于缓存之中,模型可直接调用,无需重新计算或从数据库检索,节省了算力、时间及存储资源,成本更低,若没能命中,则需要消耗更多算力等资源,成本更高。
目前,按Token计价收费是AI公司的主要商业模式。命中缓存相对价格较低,未命中则收费更高。
张奇告诉记者,对行业来说,DeepSeek在最新的文章中提到的56.3%缓存命中率(原文称,在 24 小时统计时段内,DeepSeek V3 和 R1都能实现输入 token 总数为 608B,其中 342B tokens(56.3%)命中 KVCache 硬盘缓存)是一项具有重要意义数据。
“虽然各家没有公布过相关数据,但超过一半的命中率在业内应该已是很高的水平。”张奇认为,像在DeepSeek所开发的6710亿参数超大模型上,几亿用户提问时所写的文本多多少少存在差异,在这种前提下能够实现高中率,说明团队在模型整体优化上做了很多工作。
据DeepSeek团队介绍,V3、R1推理系统的优化目标就是追求“更大的吞吐,更低的延迟。”
基于DeepSeek采取的混合专家模型核心架构(MOE),超大模型由众多规模较小的专家模型组成,并承担不同的分工。通俗用人类世界的团队合作来解释其中所需要的调度工作,如果一个团队要将各个领域的专家集合到一起来攻克某项任务,就需要事先把整体任务拆分成多个流程环节的任务,再按照分配给不同领域的专家,让他们每个人都发挥专业技能解决问题,最后汇总结论。
DeepSeek在文中写道,由于DeepSeek-V3 / R1的专家数《一分快3在线预测免费》量众多,并且按照最初的设计规则,每层256个专家在实际运行中仅激活其中8个。要实现团队的“大吞吐,低延迟”的优化目标,就需要做到短时间处理大量任务时“高效调用”每个专家,也就是DeepSeek在文中提到的“大规模跨节点专家并行(Expert Parallelism / EP)”。
“这是一项难度极大的平衡工作,如果模型优化分配上做不好,就会使得一个6000多亿参数的超大模型,每次可能只有8个或几个专家在实际运行,而且如果某一个没有运行完,剩下的所有专家可能在等待。等待则通常又意味着计算资源的浪费。”张奇认为,在DeepSeek开源前,混合专家模型的平衡设计对许多AI模型大厂都是尚未攻克的难题。
此外,据DeepSeek介绍,另外,由于白天用户访问量大、服务负荷高,晚上的服务负荷低,团队实现了一套机制,在白天负荷高的时候,利用所有模型节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。
根据DeepSeek统计,按照这套“白天推理——晚上训练”的方案规划,在最近的24小时内,将DeepSeek V3和R1推理服务占用节点加到一起,任务繁忙的高峰期最多占用278个节点,平均占用226.75个节点(每个节点为8个英伟达H800 GPU)。
张奇认为,考虑到DeepSeek还有新模型项目及其他工作需要GPU,上述1800-2000张H800GPU(平均占用节点数乘以8个GPU),大概率已经用上了DeepSeek现阶段为DeepSeek V3与R1模型所能调用的“全部算力资源”。
此前按照行业观点,DeepSeek的创新突破在于,在有限资源的环境下,将效率提升到了极致,从而实现了模型的低成本开发。在上述一系列优化效率的基础之上,才有了545%的成本利润率。
但DeepSeek也强调,545%只是一个理论值,实际运行时没“有这么多收入”。因为 V3 的定价更低,同时收费服务只占一部分,另外夜间还另有折扣。
此前,DeepSeek在同类模型厂商中就以“AI拼多多”的低价标签备受关注。
去年推出V2模型时,DeepSeek就曾在4月首次将API调用价格降至输入1元/百万tokens、输出2元/百万tokens,引发了豆包、Kimi、文心一言等厂商的跟进,带动了第一波模型价格战。最新的V3模型服务定价仅为OpenAI同类模型4o的1/15,R1模型的价格也远低于同行。
此次公布出的高利润率也让外界看清了DeepSeek降价的“底牌”。
在此之前,业内一度热议“DeepSeek模型API定价过低是否会带来巨大亏损”,DeepSeek前研究员罗福莉去年5月在个人知乎上否认了这一点。据她透露,目前以DeepSeek现在的定价,大规模服提供服务,不亏本,利润率超50%。DeepSeek创始人梁文峰也在接受36氪媒体专访时提到,公司的定价策略是“原则上不亏本销售,也不追求过高利润。目前的定价仅在成本之上保留了一定的利润空间。”
目前,业内宣布接入部署“满血版”DeepSeek R1模型的厂商大多以单机(8张GPU的服务器)、双机这一类小规模设备为主。据记者了解,“四机目前是业内考验公司技术能力的一道分水岭”。而随着服务器台数越多,规模化部署调度和优化难度越大,DeepSeek团队所实现的300多台服务器部署工程对团队技术能力要求更是急剧上升。
眼下,虽然545%的成本利润率是DeepSeek基于大规模部署测算的一个理论值,实际的利润水平官方并未公布,但依然让行业开始看到了“赚钱的希望”。
张奇认为,DeepSeek在公布利润率的同时也将模型优化方法开源,行业会更加积极学习这套优化方法部署DeepSeek。虽然对绝大多数公司来说,“知道”和“做到”是两件事,将同样优化方法落到实际会遇到各种新问题,但整个行业会在这方面进行更多尝试。
(界面新闻记者伍洋宇对此文亦有贡献)
责任编辑:韦子蓉