Claude AI价格详解:API收费标准与神马中转API低价Claude推荐
神马中转API
国内直连企业级中转,600+全模型支持
Anthropic 官方价格详解(2026最新版):Claude API 模型、缓存、Batch、长上下文与工具使用费用全梳理
Anthropic 官方价格页显示,Claude API 的计费已经不只是模型输入输出单价,而是包含了提示缓存、Batch API、长上下文、数据驻留和工具使用等完整体系。标准价格方面,Claude Sonnet 4/4.5/4.6 统一为 $3/MTok 输入、$15/MTok 输出,Claude Haiku 4.5 为 $1/MTok 输入、$5/MTok 输出,Claude Opus 4.5/4.6 为 $5/MTok 输入、$25/MTok 输出。Batch API 输入和输出均享受 50% 折扣;1M 上下文窗口在输入超过 200K Token 后会整体切换到更高费率;美国限定推理(inference_geo)会带来 1.1 倍乘数;Web Search 的官方价格是 $10 / 1000 次搜索。对于做 Agent、长上下文、联网搜索和批量任务的团队来说,这些“附加定价规则”往往比模型单价本身更影响最终成本。

Anthropic官方价格体系的核心逻辑
Anthropic 官方文档把 Claude API 的成本拆成几层:
-
模型基础价格(Base Input / Output)
-
提示缓存价格(5分钟写入、1小时写入、缓存命中)
-
批量处理价格(Batch API,输入和输出均 50% 折扣)
-
长上下文价格(1M 上下文窗口,超过 200K 输入 Token 触发高级费率)
-
工具使用价格(工具会增加额外 Token,某些服务端工具还有额外按次收费)
-
数据驻留 / 区域端点乘数(特定场景会额外加价)
也就是说,真正的 Anthropic 成本管理,核心不是“选哪个模型”,而是“选模型 + 选调用模式 + 选上下文长度 + 选工具链”。

Claude API 官方模型价格(标准调用)
Anthropic 官方文档给出的标准模型价格(单位:美元 / 百万 Token,MTok = 1 million tokens)如下:
1)Claude Opus 系列
|
模型 |
基础输入 |
5分钟缓存写入 |
1小时缓存写入 |
缓存命中/刷新 |
输出 |
|---|---|---|---|---|---|
|
Claude Opus 4.6 |
$5 / MTok |
$6.25 / MTok |
$10 / MTok |
$0.50 / MTok |
$25 / MTok |
|
Claude Opus 4.5 |
$5 / MTok |
$6.25 / MTok |
$10 / MTok |
$0.50 / MTok |
$25 / MTok |
|
Claude Opus 4.1 |
$15 / MTok |
$18.75 / MTok |
$30 / MTok |
$1.50 / MTok |
$75 / MTok |
|
Claude Opus 4 |
$15 / MTok |
$18.75 / MTok |
$30 / MTok |
$1.50 / MTok |
$75 / MTok |
|
Claude Opus 3(deprecated) |
$15 / MTok |
$18.75 / MTok |
$30 / MTok |
$1.50 / MTok |
$75 / MTok |
以上价格全部来自 Anthropic 官方“模型定价”表。可以看到,Opus 4.6 / 4.5 相比 Opus 4.1 / 4,价格明显下降:基础输入从 $15 降到 $5,输出从 $75 降到 $25。
2)Claude Sonnet 系列
|
模型 |
基础输入 |
5分钟缓存写入 |
1小时缓存写入 |
缓存命中/刷新 |
输出 |
|---|---|---|---|---|---|
|
Claude Sonnet 4.6 |
$3 / MTok |
$3.75 / MTok |
$6 / MTok |
$0.30 / MTok |
$15 / MTok |
|
Claude Sonnet 4.5 |
$3 / MTok |
$3.75 / MTok |
$6 / MTok |
$0.30 / MTok |
$15 / MTok |
|
Claude Sonnet 4 |
$3 / MTok |
$3.75 / MTok |
$6 / MTok |
$0.30 / MTok |
$15 / MTok |
|
Claude Sonnet 3.7(deprecated) |
$3 / MTok |
$3.75 / MTok |
$6 / MTok |
$0.30 / MTok |
$15 / MTok |
Anthropic 官方文档显示,Sonnet 4.6 / 4.5 / 4 / 3.7 的标准定价完全一致。这意味着,如果你的主要诉求是成本稳定而不是追求更高端能力,Sonnet 系列在价格层面几乎没有版本差异。
3)Claude Haiku 系列
|
模型 |
基础输入 |
5分钟缓存写入 |
1小时缓存写入 |
缓存命中/刷新 |
输出 |
|---|---|---|---|---|---|
|
Claude Haiku 4.5 |
$1 / MTok |
$1.25 / MTok |
$2 / MTok |
$0.10 / MTok |
$5 / MTok |
|
Claude Haiku 3.5 |
$0.80 / MTok |
$1 / MTok |
$1.6 / MTok |
$0.08 / MTok |
$4 / MTok |
|
Claude Haiku 3 |
$0.25 / MTok |
$0.30 / MTok |
$0.50 / MTok |
$0.03 / MTok |
$1.25 / MTok |
如果你的目标是高并发、轻量推理、低成本分类/抽取/改写,从官方价格表看,Haiku 依然是 Anthropic 体系里最便宜的路线,尤其是 Haiku 3。
Prompt Caching(提示缓存)怎么收费?
Anthropic 官方文档明确写了缓存的定价倍率规则:
-
5 分钟缓存写入 = 基础输入价格的 1.25 倍
-
1 小时缓存写入 = 基础输入价格的 2 倍
-
缓存读取 = 基础输入价格的 0.1 倍
这意味着缓存的核心价值不是“更便宜地首次写入”,而是让重复使用的大提示(system prompt、知识库前缀、长模板)在后续请求中大幅降本。例如以 Sonnet 4.6 为例:
-
基础输入:$3 / MTok
-
5分钟缓存写入:$3.75 / MTok
-
1小时缓存写入:$6 / MTok
-
缓存命中:$0.30 / MTok
所以如果你有一个很大的固定前缀 Prompt,多次复用时,后续读取成本会比重新发送原始输入便宜很多。以上倍率和价格都来自官方文档。
Batch API:官方明确输入输出都打 5 折
Anthropic 官方文档写得非常直接:Batch API 允许异步处理大量请求,输入和输出 Token 均享受 50% 的折扣。
官方给出的 Batch 价格如下:
|
模型 |
Batch 输入 |
Batch 输出 |
|---|---|---|
|
Claude Opus 4.6 |
$2.50 / MTok |
$12.50 / MTok |
|
Claude Opus 4.5 |
$2.50 / MTok |
$12.50 / MTok |
|
Claude Opus 4.1 |
$7.50 / MTok |
$37.50 / MTok |
|
Claude Opus 4 |
$7.50 / MTok |
$37.50 / MTok |
|
Claude Sonnet 4.6 |
$1.50 / MTok |
$7.50 / MTok |
|
Claude Sonnet 4.5 |
$1.50 / MTok |
$7.50 / MTok |
|
Claude Sonnet 4 |
$1.50 / MTok |
$7.50 / MTok |
|
Claude Sonnet 3.7(deprecated) |
$1.50 / MTok |
$7.50 / MTok |
|
Claude Haiku 4.5 |
$0.50 / MTok |
$2.50 / MTok |
|
Claude Haiku 3.5 |
$0.40 / MTok |
$2 / MTok |
|
Claude Opus 3(deprecated) |
$7.50 / MTok |
$37.50 / MTok |
|
Claude Haiku 3 |
$0.125 / MTok |
$0.625 / MTok |
如果你的业务是离线生成、批量清洗、异步摘要、海量改写,Anthropic 官方定价里最值得关注的就是 Batch API,因为它不是小幅优惠,而是输入和输出双双半价。
1M 长上下文怎么收费?超过 200K 会整单升档
Anthropic 官方文档指出:当你使用 Claude Opus 4.6、Claude Sonnet 4.5 或 Claude Sonnet 4 并启用 1M token 上下文窗口时,如果输入超过 200K tokens,请求会自动按高级长上下文费率收费。同时,1M 上下文窗口目前仍处于 beta,适用于使用层级 4 的组织和具有自定义速率限制的组织。
官方给出的长上下文价格如下:
Claude Opus 4.6
-
≤ 200K 输入:输入 $5 / MTok,输出 $25 / MTok
-
> 200K 输入:输入 $10 / MTok,输出 $37.50 / MTok
Claude Sonnet 4.5 / 4
-
≤ 200K 输入:输入 $3 / MTok,输出 $15 / MTok
-
> 200K 输入:输入 $6 / MTok,输出 $22.50 / MTok
这里最容易被忽略的官方规则有两个:
-
阈值只看输入 Token(包括缓存读写)
-
一旦超过 200K,整个请求的所有 Token 都按更高费率计费,不是只对超出的部分加价
这意味着,做长文档、多文件检索、超长上下文 Agent 时,200K 是 Anthropic 成本控制的关键分界线。
数据驻留(Data Residency)会额外加价多少?
Anthropic 官方文档说明:对于 Claude Opus 4.6 及更新模型,如果通过 inference_geo 参数指定仅限美国推理,那么所有 Token 定价类别都会乘以 1.1 倍,包括:
-
输入 Token
-
输出 Token
-
缓存写入
-
缓存读取
默认的全球路由则使用标准价格。
也就是说,如果你启用美国限定推理,官方规则是:整体加价 10%。这项规则仅适用于 Claude API(1P),第三方平台有自己的区域定价规则。
第三方平台(AWS / Vertex / Microsoft Foundry)怎么定价?
Anthropic 官方文档说明,Claude 模型也可以在以下平台使用:
-
AWS Bedrock
-
Google Vertex AI
-
Microsoft Foundry
但官方文档没有直接给出这些平台的具体单价,而是明确建议去对应平台查看官方价格页。
同时,Anthropic 官方特别说明:从 Claude Sonnet 4.5 和 Haiku 4.5 开始,AWS Bedrock 和 Google Vertex AI 提供两类端点:
-
全球端点:跨区域动态路由,追求最大可用性
-
区域端点:保证数据在特定地理区域内路由
Anthropic 官方给出的规则是:区域端点相比全球端点有 10% 溢价。而 Claude API(1P)默认全球路由,不受此变更影响,并且 Claude API 只提供全球路由。这个规则适用于 Sonnet 4.5、Haiku 4.5 以及未来模型;更早的模型保留原有定价。
国内开发者的另一种接入方式:神马聚合中转API
除了 Anthropic 官方 API、AWS Bedrock、Google Vertex AI 和 Microsoft Foundry 之外,国内开发者在实际接入 Claude 时,往往还会考虑另一种更“工程化”的路径:神马聚合中转 API。
这类服务本质上不是模型提供方,而是位于开发者与上游模型服务之间的一层统一接入网关。对于很多需要同时接入 Claude、OpenAI、Gemini、DeepSeek 等多家模型的团队来说,它的价值通常不在于“替代官方价格”,而在于:
-
统一接口协议:很多平台兼容 OpenAI 风格接口,迁移成本更低
-
多模型统一管理:一个后台管理多个模型、多个 Key、多个项目
-
减少多平台切换成本:避免在 Anthropic、OpenAI、Google 等多个平台分别维护账户和额度
-
更适合国内测试与快速接入:对个人开发者、小团队、原型验证场景更友好
- 价格便宜80%以上:不同分组价格优惠
神马中转API平台支持 Claude、OpenAI、Gemini、Midjourney、Suno 等多类模型的统一接入,并提供兼容 OpenAI 风格的调用方式,常见项目只需要替换 Base URL 和 API Key 即可接入。

工具使用(Tool Use)怎么收费?
Anthropic 官方文档对 Tool Use 的描述非常关键:工具调用的成本不只是“模型自己多想了一下”,而是由以下三部分构成:
-
发送给模型的总输入 Token(包括 tools 参数)
-
模型生成的输出 Token
-
对于服务端工具,还可能有额外按使用量计费(例如 Web Search 按搜索次数收费)
官方文档还强调,使用 tools 时,系统会自动注入一个用于启用工具能力的特殊系统提示词,因此会产生额外系统 Prompt Token 开销。
Tool Use 的系统提示 Token 开销(官方表)
Anthropic 官方文档给出了各模型在至少提供 1 个工具时的系统提示 Token 额外开销。若没有提供 tools,并且 tool choice 为 none,则没有这部分额外系统提示 Token。
Claude 4.x 主流模型(Opus 4.6 / 4.5 / 4.1 / 4;Sonnet 4.6 / 4.5 / 4;Sonnet 3.7;Haiku 4.5)
-
auto / none:346 tokens
-
any / tool:313 tokens
Claude Haiku 3.5 / Haiku 3
-
auto / none:264 tokens
-
any / tool:340 tokens
Claude Opus 3(deprecated)
-
auto / none:530 tokens
-
any / tool:281 tokens
Claude Sonnet 3
-
auto / none:159 tokens
-
any / tool:235 tokens
这部分成本虽然看起来不大,但在超高 QPS、小请求、多工具 Agent场景里,可能会成为不可忽略的隐性成本。
Bash 工具官方价格规则
Anthropic 官方文档写明:
-
Bash 工具会给 API 调用额外增加 245 个输入 Token
-
另外还会因为以下内容继续消耗 Token:
-
stdout / stderr 输出
-
错误信息
-
大文件内容
-
这意味着 Bash 工具本身没有单独“按次收费”的说明,但它会带来固定 + 可变的 Token 成本。
Code Execution(代码执行工具)官方收费规则
Anthropic 官方文档给出了一个非常实用的规则:
1)如果与 Web Search 或 Web Fetch 一起用
当请求中包含 web_search_20260209 或 web_fetch_20260209 时,Code Execution 不额外收费,只收标准输入 / 输出 Token 成本。
2)如果单独使用
如果不和上述工具一起用,Code Execution 会按执行时间收费,而不是按 Token:
-
最低计费时长:5 分钟
-
每个组织每月赠送:1,550 小时
-
超出后:$0.05 / 小时 / 容器
-
如果请求中包含文件,即使工具未被调用,也可能因文件预加载而计时计费
这是 Anthropic 官方文档里非常重要但经常被忽略的一条:文件预加载也可能触发代码执行计时成本。
Text Editor 工具官方价格规则
Anthropic 官方文档说明,Text Editor 工具遵循与其他工具相同的标准模型输入 / 输出计价方式,但还会额外增加输入 Token。官方给出的额外输入开销是:
-
text_editor_20250429(Claude 4.x):700 tokens
-
text_editor_20250124(Claude Sonnet 3.7):700 tokens
因此,文本编辑类 Agent 工作流虽然不是单独按次收费,但其上下文体积成本并不低。
Web Search 工具官方价格:$10 / 1000 次搜索
Anthropic 官方文档明确写道:
-
Web Search 除了 Token 成本外,还要额外收费
-
官方价格为:$10 / 1,000 次搜索
-
同时,搜索生成的内容会作为对话上下文进入后续轮次,因此还会继续产生标准 Token 成本
官方还说明:
-
每次 Web Search 只算 1 次使用,不管返回多少结果
-
如果搜索出错,则不会收费
这意味着,对于需要联网搜索的 Agent,成本模型应理解为:
“按搜索次数收费 + 搜索结果内容进入上下文后的 Token 成本”。
Web Fetch 工具官方价格:无额外收费,只收 Token
Anthropic 官方文档说明:
-
Web Fetch 没有额外服务费
-
只收取被抓取内容进入上下文后产生的标准 Token 成本
官方还给了典型内容体量的 Token 参考:
-
普通网页(10 kB):约 2,500 tokens
-
大型文档页(100 kB):约 25,000 tokens
-
研究论文 PDF(500 kB):约 125,000 tokens
这对预算控制非常有帮助:Web Fetch 本身免费,但抓太大的内容会迅速推高上下文成本,甚至可能触发长上下文计费档位。
Computer Use(计算机使用工具)官方价格要点
Anthropic 官方文档显示,Computer Use 走的是标准 Tool Use 价格逻辑,但有额外 Token 开销:
-
系统提示额外开销:466–499 tokens
-
工具定义输入开销:
-
Claude 4.x:735 tokens
-
Claude Sonnet 3.7:735 tokens
-
-
额外还会消耗:
-
截图图像(按视觉定价)
-
工具执行结果返回给 Claude 的内容
-
所以,Computer Use 不是“一个按钮”的成本,而是系统提示 + 工具定义 + 图像输入 + 执行结果回传的组合成本。
从 Anthropic 官方价格看,怎么选模型最划算?
如果只基于 Anthropic 官方价格页,不做任何站外性能评价,可以得出几个很清晰的结论:
追求极致低成本:Haiku 系列
-
Haiku 3 最低:输入 $0.25 / MTok,输出 $1.25 / MTok
-
Haiku 3.5 / 4.5 更贵,但仍是低价位选择
通用主力位:Sonnet 系列
-
Sonnet 4 / 4.5 / 4.6 标准价都一致:输入 $3 / MTok,输出 $15 / MTok
-
Batch 后可降到:输入 $1.50 / MTok,输出 $7.50 / MTok
高端能力但新版本更划算:Opus 4.5 / 4.6
-
Opus 4.5 / 4.6:输入 $5 / MTok,输出 $25 / MTok
-
远低于 Opus 4 / 4.1 的输入 $15、输出 $75
也就是说,从纯价格角度看,Anthropic 官方定价已经明显鼓励开发者向较新的 Opus 4.5/4.6 与 Sonnet 4.5/4.6 迁移。
如果你不想分别维护多个官方账户,可以考虑统一接入层
从纯官方价格角度看,Anthropic 的模型选型已经很清晰:
Haiku 适合低成本高并发,Sonnet 适合通用主力,Opus 适合高端复杂任务。
但在真实项目里,很多团队并不会只用 Claude 一家模型。常见情况是:
-
文本推理用 Claude
-
部分代码或推理任务用 OpenAI
-
多模态或图像任务用 Gemini / MJ
-
某些国内业务场景再叠加 DeepSeek 或其他模型
这时候,真正的复杂度往往不在“模型价格”,而在于:
-
多平台账户维护
-
多套 API Key 管理
-
不同接口协议适配
-
余额分散、成本归集困难
-
多供应商切换带来的工程成本
因此,对于需要“多模型统一接入”的团队,一个常见做法是增加一层聚合 API 网关。比如神马中转API这类平台,支持多个主流模型的统一调用,并提供兼容 OpenAI 风格的接口形式,很多现有项目可以通过替换 Base URL 的方式快速接入,而且价格便宜70%以上很划算!

十七、做 Anthropic 成本预算时,最容易踩的 5 个坑
根据官方文档,以下 5 个点最容易被忽略:
-
Prompt Caching 不是免费:写入比普通输入更贵,但命中极便宜。
-
Batch API 是双向 5 折:不是只便宜输入,输出也半价。
-
1M 长上下文一旦超过 200K 输入,整单升档。
-
Web Search 是按次收费的:$10 / 1000 次,还叠加 Token 成本。
-
Code Execution 可能因文件预加载计时收费,即使你没真正调用。
结论:Anthropic 官方价格最值得记住的数字
如果你只想快速记住 Anthropic 官方价格里的关键数字,这几个最重要:
-
Sonnet 4.x 标准价:$3 输入 / $15 输出(每百万 Token)
-
Haiku 4.5 标准价:$1 输入 / $5 输出(每百万 Token)
-
Opus 4.6 标准价:$5 输入 / $25 输出(每百万 Token)
-
Batch API:输入 + 输出都 5 折
-
缓存命中:基础输入价的 0.1 倍
-
1M 长上下文阈值:200K 输入 Token
-
数据驻留(美国限定推理):1.1 倍乘数
-
AWS / Vertex 区域端点:比全球端点 贵 10%(适用于 Sonnet 4.5、Haiku 4.5 及未来模型)
-
Web Search:$10 / 1,000 次搜索
-
Code Execution 超额:$0.05 / 小时 / 容器(月赠 1,550 小时)
