前言

LLM 发展到现在,领先的大模型在能力上已经得到了认可,问题就是如何找到稳定可靠,并且便宜的 API 服务商。

现在将市面上常见的提供完整版(非蒸馏)DeepSeek API 的提供上列出来,作为备忘。

DeepSeek 官方

价格(RMB):

(北京时间 08:30-00:30)按照标准价格计费

模型价格deepseek-chatdeepseek-reasoner
百万 tokens 输入(缓存命中)(4)0.5 元1 元
百万 tokens 输入(缓存未命中)2 元4 元
百万 tokens 输出 (5)8 元16 元

(北京时间 00:30-08:30) 按照优惠价格计费

模型价格deepseek-chatdeepseek-reasoner
百万 tokens 输入(缓存命中)0.25 元(5折)0.25 元(2.5 折)
百万 tokens 输入(缓存未命中)1 元(5折)1 元(2.5 折)
百万 tokens 输出4 元(5折)4 元(2.5 折)

调用示例

OpenRouter

介绍:

现在模型服务商很多,不仅仅是模型研发厂商,也有很多提供模型推理的云平台。

而不同服务商的价格和稳定性都是有差异的,这时候我们为了稳定性自己就需要集成接入多家模型服务商,并且做负载均衡。这个过程要做得好还是比较复杂的。

而 OpenRouter 就是一家做 AI 类接口聚合的服务商,将各类模型聚合在一起,提供 OpenAI 兼容的 API 调用方式。很多 AI 工具如 Cline、SillyTavern 都支持他们的 API

特点是集成的 API 提供商中,有不少是提供免费额度的,例如 DeepSeek V3 和 R1 模型因为开放权重文件且允许商用,有不少服务商都会搭建并提供免费调用。

调用示例:

curl https://openrouter.ai/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENROUTER_API_KEY" \
  -d '{
  "model": "deepseek/deepseek-r1",
  "messages": [
    {
      "role": "user",
      "content": "What is the meaning of life?"
    }
  ]

}'

价格

标签价格是:

$0.55/M input tokens $2.19/M output tokens

换算成人民币:

  • 每百万输入 3.99 元,大约 4 元
  • 每百万输出 15.91,大约 16 元

值得注意的是,因为是聚合服务,调用价格跟具体路由到哪家服务商有关。OpenRouter 的 路由策略 默认是 load balance requests across providers, prioritizing price ,也就是会考虑提供商的价格,这样可以节省成本。

有一个小技巧是,可以通过在模型名字后面添加 nitro 来指定该模型路由方式为性能优先,添加 price 标签指定为价格最低优先

例如:~ deepseek/deepseek-r1:nitro

fetch('https://openrouter.ai/api/v1/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': 'Bearer <OPENROUTER_API_KEY>',
    'HTTP-Referer': '<YOUR_SITE_URL>', // Optional. Site URL for rankings on openrouter.ai.
    'X-Title': '<YOUR_SITE_NAME>', // Optional. Site title for rankings on openrouter.ai.
    'Content-Type': 'application/json',
  },
  body: JSON.stringify({
    'model': 'meta-llama/llama-3.1-70b-instruct:nitro',
    'messages': [
      {
        'role': 'user',
        'content': 'Hello'
      }
    ]
  }),
});

火山引擎

介绍

字节跳动旗下云平台

调用示例

模型名字是:

deepseek-r1-250120

https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1

curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer xxx" \
  -d '{
    "model": "deepseek-r1-250120",
    "messages": [
      {"role": "system","content": "你是人工智能助手."},
      {"role": "user","content": "常见的十字花科植物有哪些?"}
    ]
  }'

deepseek-v3-241226

curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer xxxxxx" \
  -d '{
    "model": "deepseek-v3-241226",
    "messages": [
      {"role": "system","content": "你是人工智能助手."},
      {"role": "user","content": "常见的十字花科植物有哪些?"}
    ]
  }'

价格

模型服务计费–火山方舟大模型服务平台-火山引擎

deepseek-r1

  • 每百万输入: 4 元

  • 每百万输出:16 元

    deepseek-v3

  • 每百万输入: 2 元

  • 每百万输出:8 元

但是因为该服务商支持上下文缓存功能,价格计算会更复杂,详情请看 上下文缓存计费

批量推理半价

批量推理–火山方舟大模型服务平台-火山引擎

  • 批量推理任务:业界常规的批量、离线使用模式,使用离线链路。需要配合火山引擎对象存储(TOS)使用。
  • 批量推理接入点:不需要依赖存储,直接请求方舟模型接口。和在线推理当前的使用方式接近。

邀请计划:

阿里云百炼

调用示例:

curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
    "model": "deepseek-r1",
    "messages": [
        {
            "role": "user",
            "content": "9.9和9.11谁大"
        }
    ]
}'

价格

https://bailian.console.aliyun.com/#/model-market/detail/deepseek-r1?tabKey=sdk

模型名称单位输入价格输出模型链接
deepseek-r1百万 token4 元16 元阿里云百炼
deepseek-v3百万 token2 元8 元阿里云百炼

硅基流动

介绍

价格

模型名称模型页面输入价格输出价格Rate Limit
Pro/deepseek-ai/DeepSeek-R1模型页面¥4/M Tokens¥16/M Tokens使用本模型时 RPM 为 1,000;TPM 为 1,000,000;
Pro/deepseek-ai/DeepSeek-V3模型页面¥2/M Tokens¥8/M Tokens使用本模型时 RPM 为 1,000;TPM 为 1,000,000;

调用示例

curl --request POST \
  --url https://api.siliconflow.cn/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '{
  "model": "Qwen/QwQ-32B",
  "messages": [
    {
      "role": "user",
      "content": "What opportunities and challenges will the Chinese large model industry face in 2025?"
    }
  ],
  "stream": false,
  "max_tokens": 512,
  "stop": null,
  "temperature": 0.7,
  "top_p": 0.7,
  "top_k": 50,
  "frequency_penalty": 0.5,
  "n": 1,
  "response_format": {
    "type": "text"
  },
  "tools": [
    {
      "type": "function",
      "function": {
        "description": "<string>",
        "name": "<string>",
        "parameters": {},
        "strict": false
      }
    }
  ]
}'

邀请计划:

邀请码:YzyEAiDi 邀请链接:https://cloud.siliconflow.cn/i/YzyEAiDi

不过需要注意的是邀请计划实际价值 14 元

SiliconCloud 邀请奖励持续进行,2000 万 Tokens 送不停!

  1. 邀请好友赚 2000 万 Tokens:每成功邀请一位新用户通过手机号码注册,您将获得 2000 万 Tokens;
  2. 注册即送 2000 万 Tokens:受邀好友作为新用户完成 SiliconCloud 账号注册,立刻获得 2000 万 Tokens。

平台 2000 万 Tokens 特指 Qwen2.5-14B-Instruct 模型单价下的数量,实际到账为 14 元平台配额;

汇总表格

价格汇总

将本文提到的所有模型提供商、及其价格,汇总成表

价格单位都是(元/百万 tokens)

提供商模型名称输入价格输出价格备注
DeepSeek 官方deepseek-chat28标准时间(08:30-00:30)
1(5 折)4(5 折)优惠时间(00:30-08:30)
deepseek-reasoner416标准时间(08:30-00:30)
1(2.5 折)4(2.5 折)优惠时间(00:30-08:30)
OpenRouter-416无缓存区分,价格已换算为人民币
火山引擎deepseek-r1416批量推理时输入输出价格均为半价
deepseek-v328批量推理时输入输出价格均为半价
阿里云百炼deepseek-r1416无特殊时间/缓存区分
deepseek-v328无特殊时间/缓存区分
硅基流动Pro/deepseek-ai/DeepSeek-R1416Rate Limit: RPM 1,000;TPM 1,000,000
Pro/deepseek-ai/DeepSeek-V328Rate Limit: RPM 1,000;TPM 1,000,000

选择

按时间段优惠

可以看到,各个服务商的常规价格以 R1 为基准算的话输入 4 元,输出 16 元,V3 价格是输入 2 元,输出 8 元。

如果想要比较优惠的价格,应该考虑 DeekSeek 官方接口,在优惠时间段能拿到 R1 输 4 入一元,输出 4 元的好价。

数据量规模大

其次是考虑火山引擎的批量推理的五折优惠,这里批量推理是不限时间的,但是需要改造模型调用流程。比较适合批量处理任务,例如翻译书籍等

思考

看到这里,或许我也可以参考 OpenRouter 来自己造一个接口兼容层,轻量化地实现聚合接口的功能,并提供流量控制、计费等能力。

同类产品中 OpenRouter 比较适合国外的模型,比如 Claude 因为封号比较严重,用聚合平台比较好。

开源的 API 聚合产品 如 one-api 也是一个选择: https://github.com/songquanpeng/one-api