3月1日 ,最高DeepSeek在开源周最后一天抛出的日赚"暴利"数据引发热议——V3/R1推理系统理论日利润高达346万元人民币(47.5万美元)。在这组看似惊人的官方数字背后,是称理一场关于AI模型服务商业化的现实拷问。有行业人士认为,论收即便按更严谨的益并口径计算,DeepSeek还是非实赚钱的 ,但卖DeepSeek API的最高厂商能否挣钱 ,目前业内有一些争议 。日赚
DeepSeek统计了2月27日24点到2月28日24点,官方最近的称理24小时里DeepSeek V3 和 R1推理服务占用节点总和,峰值占用为278个节点,论收平均占用226.75个节点(每个节点为 8个H800 GPU)。益并假定GPU租赁成本为2美元/小时,非实DeepSeek计算出其每日总成本为8.7万美元(折合人民币约63万元) 。最高
如果所有token都以DeepSeek-R1的价格计费 ,每日总收入将为56.2万美元(折合人民币约409万元) ,成本利润率达到545%。
但DeepSeek提到,实际上并没有这么多收入 ,因为V3的定价更低 ,同时收费服务只占了一部分,面向用户的网页端和应用程序免费 ,另外夜间还会有折扣,导致实际收入远不及理论数值。
若根据官方公布的这一理论数据测算,用每日56.2万美元的收入 ,减去每日8.7万美元的GPU成本 ,DeepSeek理论上最高每天可盈利47. 5万美元(折合人民币约346万元)。
关于盈利话题,DeepSeek创始人梁文锋曾公开表示,“我们的原则是不贴钱,也不赚取暴利 。这个价格也是在成本之上稍微有点利润 。”彼时DeepSeek降低了API价格 ,引发了行业一轮价格战 。
DeepSeek能做到这一利润率 ,部分原因是团队将优化做到极致,实现了对GPU的最大限度使用 。此次官方在《DeepSeek-V3/R1推理系统概览》这一文章开头提到,团队的优化目标是 :更大的吞吐,更低的延迟。为此DeepSeek的方案是使用大规模跨节点专家并行(Expert Parallelism /EP),每个GPU只需要计算很少的专家(因此更少的访存需求),从而降低延迟。
最近一周,DeepSeek除了在X上发布了成本等消息,也同步在国内知乎平台上发布了推理系统概览全文 。在这篇文章的评论区,硅基流动创始人袁进辉留言称,“DeepSeek 官方披露大规模部署成本和收益 ,又一次颠覆了很多人认知。”
袁进辉提到,现在很多供应商做不到这个水平,主要是V3/R1架构和其它主流模型差别太大了,由大量小Expert (专家)组成,导致瞄准其它主流模型结构开发的系统都不再有效 ,必须按照DeepSeek报告描述的方法才能达到最好的效率 ,而开发这样的系统难度很高 ,需要时间,而这周“DeepSeek五连发”已经将主要模块开源出来了,降低了社区复现的难度。
DeepSeek公开声明了自己的“账本”显示盈利,但和一些中间商的感受并不完全一致。潞晨科技此前业务涉及卖DeepSeek API,创始人尤洋发文提到 ,DeepSeek这篇文章中的数据对计算MaaS(Model as a Service,模型即服务)成本没有任何参考价值 。MaaS(Model as a Service)是模型即服务 ,这种模式将模型部署到企业端