问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

DeepSeek发文首次披露利润率,高达545%

创作时间:
作者:
@小白创作中心

DeepSeek发文首次披露利润率,高达545%

引用
1
来源
1.
https://news.ycwb.com/2025-03/01/content_53265693.htm

3月1日,DeepSeek在知乎开设官方账号,发布《DeepSeek-V3/R1推理系统概览》技术文章,首次披露其成本利润率高达545%,刷新了全球AI大模型领域的盈利天花板。

3月1日,DeepSeek于知乎开设官方账号,发布《DeepSeek-V3/R1推理系统概览》技术文章,不仅公开了其推理系统的核心优化方案,更首次披露了成本利润率等关键财务数据。

数据显示,若按理论定价计算,其单日成本利润率高达545%,这一数字刷新了全球AI大模型领域的盈利天花板。

理论单日利润率达545%

根据DeepSeek官方披露,其推理服务基于H800 GPU集群部署,通过动态调整节点资源实现效率最大化。在最近24小时(2025年2月27日12:00至28日12:00)的统计周期内:

  • 成本:GPU租赁成本按2美元/小时计算,日均成本为87,072美元;
  • 收入:若所有输入/输出token按R1定价(输入1元/百万token、输出16元/百万token)计算,单日收入可达562,027美元;
  • 利润率:理论值达545%。

不过,官方坦言实际收入受V3定价更低、夜间折扣及免费服务比例影响,会低于理论值。

创新推理系统实现“降本增效”三重优化

DeepSeek的高利润率源于其创新的推理系统设计,核心包括大规模跨节点专家并行(EP)、计算通信重叠与负载均衡优化三大技术支柱:

  1. 专家家并行(EP)提升吞吐与响应速度,针对模型稀疏性(每层仅激活8/256个专家),采用EP策略扩展总体批处理规模(batch size),确保每个专家获得足够的计算负载,显著提升GPU利用率;
  2. 部署单元动态调整(如Prefill阶段4节点、Decode阶段18节点),平衡资源分配与任务需求;
  3. 计算与通信重叠隐藏延迟,Prefill阶段通过“双batch交错”实现计算与通信并行,Decode阶段拆分attention为多级流水线,最大限度掩盖通信开销;
  4. 全局负载均衡避免资源浪费,针对不同并行模式(数据并行DP、专家并行EP)设计动态负载均衡器,确保各GPU的计算量、通信量及KVCache占用均衡,避免节点空转。

DeepSeek在工程层面进一步压缩成本:

  • 昼夜资源调配:白天高峰时段全力支持推理服务,夜间闲置节点转用于研发训练,最大化硬件利用率;
  • 缓存命中率达56.3%:通过KVCache硬盘缓存减少重复计算,输入token中3420亿(56.3%)直接命中缓存,大幅降低算力消耗。

低成本高利润重塑AI商业化的成本标杆

DeepSeek此次披露的数据,不仅验证了其技术路线的商业可行性,更为行业树立了高效盈利的标杆:

  • 其模型训练成本仅为同类产品的1%-5%,此前发布的V3模型训练成本仅557.6万美元,远低于OpenAI等巨头;
  • 推理定价优势方面,R1的API定价仅为OpenAI o3-mini的1/7至1/2,低成本策略加速市场渗透。

业内分析指出,DeepSeek的开源策略与成本控制能力正在打破AI领域的资源垄断。DeepSeek此次“透明化”披露,不仅展示了其技术实力与商业潜力,更向行业传递明确信号:AI大模型的盈利闭环已从理想照进现实。

本文原文来自羊城晚报

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号