输入 $0.27/百万 Token——这个价格不是促销,而是 DeepSeek 的日常定价。
一个让竞争对手头疼的价格标签
如果你正在开发一个需要大量调用 AI API 的应用,成本是绕不过去的问题。以 GPT-4 级别的模型为例,OpenAI 的定价大约在 $30-60/百万 Token(取决于具体型号和输入/输出)。
DeepSeek 的价格呢?输入 $0.27/百万 Token,输出 $1.10/百万 Token。这不是阉割版模型的价格,而是 V3 这样 GPT-4 级别模型的价格。
粗略计算一下:如果你的应用每天处理 100 万 Token 的输入和 50 万 Token 的输出,用 OpenAI 可能需要每天 $45 以上,用 DeepSeek 大约 $0.82。一年下来,差距超过 $16000。
对于个人开发者来说,这个差距可能就是「做得起」和「做不起」的区别。
低价不等于低质
面对这么大的价格差距,第一反应通常是:「是不是模型质量差很多?」
答案是否定的。DeepSeek-V3 在多个基准测试中和 GPT-4 表现持平,R1 在推理任务上和 OpenAI o1 打平。这些都是公开的第三方评测结果,不是 DeepSeek 自己说的。
那价格为什么能这么低?核心原因有三个:
MoE 架构的推理效率:V3 虽然有 671B 参数,但每次推理只激活 37B。这意味着实际的 GPU 计算量只相当于一个 37B 模型,但输出质量是 671B 级别的。推理成本直接降低了一个数量级。
FP8 推理优化:DeepSeek 在推理阶段也使用了 FP8 精度,进一步降低了每次 API 调用的计算成本。
自研的推理引擎:DeepSeek 没有简单地用通用推理框架(如 vLLM),而是针对自家的 MoE 架构做了深度优化的推理引擎,最大化了 GPU 利用率。
全系列模型,一站式 API
DeepSeek 开放平台不只提供一个模型,而是覆盖了完整的产品线:
- DeepSeek-V3 / V3.2:通用对话和生成任务
- DeepSeek-R1:复杂推理和数学任务
- DeepSeek Coder:专业编程任务
- 各种蒸馏和轻量版本:适合不同成本敏感度的场景
API 接口和 OpenAI 兼容,这意味着如果你的应用之前用的是 OpenAI API,切换到 DeepSeek 几乎不需要改代码——改个 API endpoint 和 key 就行。
这个定价可持续吗?
很多人怀疑 DeepSeek 是在「亏本获客」,但从技术角度分析,这个价格是可持续的。
MoE 架构的高效率是结构性的优势,不是一次性的补贴。只要 DeepSeek 继续优化推理效率(而他们确实在持续做),成本还有下降空间。
更深层来看,DeepSeek 的商业策略和传统 AI API 提供商不同。他们的模型是开源的,API 服务更像是一个「方便使用」的增值服务——你可以自己部署,也可以花很少的钱直接调用。这种模式下,API 不需要承担全部的研发成本回收压力。
编辑点评
DeepSeek 的定价策略可能会对整个 AI API 市场产生深远影响。当一个 GPT-4 级别的模型 API 定价降到百分之一以下,那些依赖高 API 价格维持利润率的公司将面临巨大压力。对开发者来说,这是一个利好:AI 能力的获取成本正在以超预期的速度下降。这不是某一家公司的价格战,而是技术进步(MoE 架构 + 工程优化)带来的效率红利。