前言
LLM 发展到现在,领先的大模型在能力上已经得到了认可,问题就是如何找到稳定可靠,并且便宜的 API 服务商。
现在将市面上常见的提供完整版(非蒸馏)DeepSeek API 的提供上列出来,作为备忘。
DeepSeek 官方
- 官网:https://www.deepseek.com/
- 开放平台:https://platform.deepseek.com/
- 文档:https://api-docs.deepseek.com/zh-cn/
- 邀请计划:无
价格(RMB):
(北京时间 08:30-00:30)按照标准价格计费
模型价格 | deepseek-chat | deepseek-reasoner |
---|---|---|
百万 tokens 输入(缓存命中)(4) | 0.5 元 | 1 元 |
百万 tokens 输入(缓存未命中) | 2 元 | 4 元 |
百万 tokens 输出 (5) | 8 元 | 16 元 |
(北京时间 00:30-08:30) 按照优惠价格计费
模型价格 | deepseek-chat | deepseek-reasoner |
---|---|---|
百万 tokens 输入(缓存命中) | 0.25 元(5折) | 0.25 元(2.5 折) |
百万 tokens 输入(缓存未命中) | 1 元(5折) | 1 元(2.5 折) |
百万 tokens 输出 | 4 元(5折) | 4 元(2.5 折) |
调用示例
OpenRouter
介绍:
现在模型服务商很多,不仅仅是模型研发厂商,也有很多提供模型推理的云平台。
而不同服务商的价格和稳定性都是有差异的,这时候我们为了稳定性自己就需要集成接入多家模型服务商,并且做负载均衡。这个过程要做得好还是比较复杂的。
而 OpenRouter 就是一家做 AI 类接口聚合的服务商,将各类模型聚合在一起,提供 OpenAI 兼容的 API 调用方式。很多 AI 工具如 Cline、SillyTavern 都支持他们的 API
特点是集成的 API 提供商中,有不少是提供免费额度的,例如 DeepSeek V3 和 R1 模型因为开放权重文件且允许商用,有不少服务商都会搭建并提供免费调用。
- 官网:https://openrouter.ai/
- Deepseek R1:https://openrouter.ai/deepseek/deepseek-r1
- Deepseek R1 免费版: https://openrouter.ai/deepseek/deepseek-r1:free
- DeepSeek-V3:https://openrouter.ai/deepseek/deepseek-chat
- DeepSeek-V3 免费版:https://openrouter.ai/deepseek/deepseek-chat:free
- 邀请计划:无
调用示例:
curl https://openrouter.ai/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-d '{
"model": "deepseek/deepseek-r1",
"messages": [
{
"role": "user",
"content": "What is the meaning of life?"
}
]
}'
价格
标签价格是:
$0.55/M input tokens $2.19/M output tokens
换算成人民币:
- 每百万输入 3.99 元,大约 4 元
- 每百万输出 15.91,大约 16 元
值得注意的是,因为是聚合服务,调用价格跟具体路由到哪家服务商有关。OpenRouter 的 路由策略 默认是 load balance requests across providers, prioritizing price
,也就是会考虑提供商的价格,这样可以节省成本。
有一个小技巧是,可以通过在模型名字后面添加 nitro
来指定该模型路由方式为性能优先,添加 price
标签指定为价格最低优先
例如:~ deepseek/deepseek-r1:nitro
fetch('https://openrouter.ai/api/v1/chat/completions', {
method: 'POST',
headers: {
'Authorization': 'Bearer <OPENROUTER_API_KEY>',
'HTTP-Referer': '<YOUR_SITE_URL>', // Optional. Site URL for rankings on openrouter.ai.
'X-Title': '<YOUR_SITE_NAME>', // Optional. Site title for rankings on openrouter.ai.
'Content-Type': 'application/json',
},
body: JSON.stringify({
'model': 'meta-llama/llama-3.1-70b-instruct:nitro',
'messages': [
{
'role': 'user',
'content': 'Hello'
}
]
}),
});
火山引擎
介绍
字节跳动旗下云平台
- 官网:https://www.volcengine.com/
- 方舟控制台:https://console.volcengine.com/ark
- API 文档:https://www.volcengine.com/docs/82379/1449737
调用示例
模型名字是:
deepseek-r1-250120
https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1
curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer xxx" \
-d '{
"model": "deepseek-r1-250120",
"messages": [
{"role": "system","content": "你是人工智能助手."},
{"role": "user","content": "常见的十字花科植物有哪些?"}
]
}'
deepseek-v3-241226
curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer xxxxxx" \
-d '{
"model": "deepseek-v3-241226",
"messages": [
{"role": "system","content": "你是人工智能助手."},
{"role": "user","content": "常见的十字花科植物有哪些?"}
]
}'
价格
deepseek-r1
每百万输入: 4 元
每百万输出:16 元
deepseek-v3
每百万输入: 2 元
每百万输出:8 元
但是因为该服务商支持上下文缓存功能,价格计算会更复杂,详情请看 上下文缓存计费
批量推理半价
- 批量推理任务:业界常规的批量、离线使用模式,使用离线链路。需要配合火山引擎对象存储(TOS)使用。
- 批量推理接入点:不需要依赖存储,直接请求方舟模型接口。和在线推理当前的使用方式接近。
邀请计划:
- 活动时间: 2025 年 2 月 20 日 0:00 - 2025 年 3 月 15 日 23:59
- 活动链接:https://www.volcengine.com/docs/6256/1462015
阿里云百炼
调用示例:
curl -X POST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1",
"messages": [
{
"role": "user",
"content": "9.9和9.11谁大"
}
]
}'
价格
https://bailian.console.aliyun.com/#/model-market/detail/deepseek-r1?tabKey=sdk
模型名称 | 单位 | 输入价格 | 输出 | 模型链接 |
---|---|---|---|---|
deepseek-r1 | 百万 token | 4 元 | 16 元 | 阿里云百炼 |
deepseek-v3 | 百万 token | 2 元 | 8 元 | 阿里云百炼 |
硅基流动
介绍
- 官网:https://siliconflow.cn/
- 管理平台:https://cloud.siliconflow.cn/models
- API 文档:https://docs.siliconflow.cn/cn/api-reference/chat-completions/chat-completions
价格
模型名称 | 模型页面 | 输入价格 | 输出价格 | Rate Limit |
---|---|---|---|---|
Pro/deepseek-ai/DeepSeek-R1 | 模型页面 | ¥4/M Tokens | ¥16/M Tokens | 使用本模型时 RPM 为 1,000;TPM 为 1,000,000; |
Pro/deepseek-ai/DeepSeek-V3 | 模型页面 | ¥2/M Tokens | ¥8/M Tokens | 使用本模型时 RPM 为 1,000;TPM 为 1,000,000; |
调用示例
curl --request POST \
--url https://api.siliconflow.cn/v1/chat/completions \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "Qwen/QwQ-32B",
"messages": [
{
"role": "user",
"content": "What opportunities and challenges will the Chinese large model industry face in 2025?"
}
],
"stream": false,
"max_tokens": 512,
"stop": null,
"temperature": 0.7,
"top_p": 0.7,
"top_k": 50,
"frequency_penalty": 0.5,
"n": 1,
"response_format": {
"type": "text"
},
"tools": [
{
"type": "function",
"function": {
"description": "<string>",
"name": "<string>",
"parameters": {},
"strict": false
}
}
]
}'
邀请计划:
邀请码:YzyEAiDi 邀请链接:https://cloud.siliconflow.cn/i/YzyEAiDi
不过需要注意的是邀请计划实际价值 14 元
SiliconCloud 邀请奖励持续进行,2000 万 Tokens 送不停!
- 邀请好友赚 2000 万 Tokens:每成功邀请一位新用户通过手机号码注册,您将获得 2000 万 Tokens;
- 注册即送 2000 万 Tokens:受邀好友作为新用户完成 SiliconCloud 账号注册,立刻获得 2000 万 Tokens。
平台 2000 万 Tokens 特指 Qwen2.5-14B-Instruct 模型单价下的数量,实际到账为 14 元平台配额;
汇总表格
价格汇总
将本文提到的所有模型提供商、及其价格,汇总成表
价格单位都是(元/百万 tokens)
提供商 | 模型名称 | 输入价格 | 输出价格 | 备注 |
---|---|---|---|---|
DeepSeek 官方 | deepseek-chat | 2 | 8 | 标准时间(08:30-00:30) |
1(5 折) | 4(5 折) | 优惠时间(00:30-08:30) | ||
deepseek-reasoner | 4 | 16 | 标准时间(08:30-00:30) | |
1(2.5 折) | 4(2.5 折) | 优惠时间(00:30-08:30) | ||
OpenRouter | - | 4 | 16 | 无缓存区分,价格已换算为人民币 |
火山引擎 | deepseek-r1 | 4 | 16 | 批量推理时输入输出价格均为半价 |
deepseek-v3 | 2 | 8 | 批量推理时输入输出价格均为半价 | |
阿里云百炼 | deepseek-r1 | 4 | 16 | 无特殊时间/缓存区分 |
deepseek-v3 | 2 | 8 | 无特殊时间/缓存区分 | |
硅基流动 | Pro/deepseek-ai/DeepSeek-R1 | 4 | 16 | Rate Limit: RPM 1,000;TPM 1,000,000 |
Pro/deepseek-ai/DeepSeek-V3 | 2 | 8 | Rate Limit: RPM 1,000;TPM 1,000,000 |
选择
按时间段优惠
可以看到,各个服务商的常规价格以 R1 为基准算的话输入 4 元,输出 16 元,V3 价格是输入 2 元,输出 8 元。
如果想要比较优惠的价格,应该考虑 DeekSeek 官方接口,在优惠时间段能拿到 R1 输 4 入一元,输出 4 元的好价。
数据量规模大
其次是考虑火山引擎的批量推理的五折优惠,这里批量推理是不限时间的,但是需要改造模型调用流程。比较适合批量处理任务,例如翻译书籍等
思考
看到这里,或许我也可以参考 OpenRouter 来自己造一个接口兼容层,轻量化地实现聚合接口的功能,并提供流量控制、计费等能力。
同类产品中 OpenRouter 比较适合国外的模型,比如 Claude 因为封号比较严重,用聚合平台比较好。
开源的 API 聚合产品 如 one-api 也是一个选择: https://github.com/songquanpeng/one-api