Claude API 模型指南升級
Anthropic 把 Claude 文件重心放到 Opus 4.7,整理 1M token 上下文、128k 輸出上限、定價與跨雲模型 ID。

Anthropic 的 Claude 文件把 Opus 4.7 放到最上層,並把模型 ID、價格、上下文與雲端端點一次講清楚。
說真的,這頁很像文件版的選購指南。Claude models overview 直接把 Claude Opus 4.7、Claude Sonnet 4.6、Claude Haiku 4.5 排好。你不用再翻半天文件猜哪個適合。
更實際的是,Anthropic 把 Amazon Bedrock、Vertex AI、Microsoft Foundry 的差異也寫進去。對開發者來說,這種資訊比廣告詞有用多了。
| Model | API ID | Input price | Output price | Context window | Max output |
|---|---|---|---|---|---|
| Claude Opus 4.7 | claude-opus-4-7 | $5 / MTok | $25 / MTok | 1M tokens | 128k tokens |
| Claude Sonnet 4.6 | claude-sonnet-4-6 | $3 / MTok | $15 / MTok | 1M tokens | 64k tokens |
| Claude Haiku 4.5 | claude-haiku-4-5-20251001 | $1 / MTok | $5 / MTok | 200k tokens | 64k tokens |
Opus 4.7 被放在最前面,不是偶然
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
Claude Opus 4.7 是 Anthropic 目前主推的高階模型。文件直接把它寫成最適合複雜推理和 agentic coding 的選項。這種寫法很直白,也很少見。

Anthropic 還提到,Opus 4.7 相比 Opus 4.6 在 agentic coding 有「step-change improvement」。講白了,就是它想讓你知道,這次升級不是小修小補。對寫程式、跑工具鏈、做長流程任務的人,這句話很有份量。
更重要的是,Anthropic 已經把選模邏輯講得很清楚。你要長上下文,就看 1M token。你要更強推理,就看 Opus。你要速度和成本平衡,就看 Sonnet。你要低延遲,就看 Haiku。
- Opus 4.7:1M token 上下文,128k 輸出,$5 / MTok 輸入,$25 / MTok 輸出
- Sonnet 4.6:1M token 上下文,64k 輸出,$3 / MTok 輸入,$15 / MTok 輸出
- Haiku 4.5:200k token 上下文,64k 輸出,$1 / MTok 輸入,$5 / MTok 輸出
- Opus 和 Sonnet 都支援 1M token,長文件差距沒以前那麼大
模型 ID 變得更硬,對 production 是好事
Anthropic 這次把 model ID 的規則講得更細。文件說,每個 Claude model ID 都是 pinned snapshot。只要 ID 裡有日期,它就是固定版本。從 4.6 世代開始,連沒有日期的 ID 也不是永遠指向最新,而是固定快照。
這對 production 很重要。你不會希望今天測過的模型,明天偷偷換行為。特別是客服機器人、法務摘要、程式碼生成這種場景,版本漂移常常比模型貴。
Anthropic 也把跨平台 ID 規則講清楚。AWS Bedrock 會用自己的命名法。Vertex AI 也有自己的 endpoint 規則。只有 Claude Platform on AWS 會盡量維持和第一方 API 一樣的 model ID。
“The best way to use a foundation model is to pick the smallest one that can do the job.” — Dario Amodei, Anthropic CEO
這句話放在這篇文件旁邊很合理。Anthropic 沒有叫你全都上最大模型。它是在逼你做選擇。對工程團隊來說,這反而比較健康,因為每個功能都能對應不同模型,而不是全部綁死在同一顆。
雲端端點才是很多團隊真正卡關的地方
很多人只看模型名稱,卻忽略部署地點。Anthropic 這次把 Claude 放在多個雲端平台上,包含 Claude API、Amazon Bedrock、Vertex AI、Microsoft Foundry。這不是純技術問題,還牽涉採購、法規、區域限制。

文件也補了 endpoint 的差異。從 Sonnet 4.5 開始,Bedrock 有 global endpoints 和 regional endpoints。Vertex AI 還多了 multi-region endpoints。這些選項聽起來很枯燥,但對金融、醫療、政府案子來說,這就是能不能上線的差別。
還有一個很實用的細節。文件說 Max output 是針對同步 Messages API。某些模型在 Message Batches API 下,搭配 beta header,還能拉更高。這種資訊很像藏在角落的備註,但真的會影響架構設計。
- Claude Platform on AWS 直接沿用第一方 Claude API IDs
- Bedrock 提供 global 與 regional endpoints
- Vertex AI 提供 global、multi-region、regional endpoints
- Models API 會回傳 max_input_tokens、max_tokens、capabilities
和其他模型比,Anthropic 的路線更像工程文件
如果拿 Claude 跟 OpenAI 或 Google 比,Anthropic 的文件風格真的比較偏工程師。它不是一直講願景,而是把 token、價格、alias、版本、端點全部列出來。
這種寫法有個好處。你可以直接做成本試算。假設一個產品每月吃 20M input token 和 5M output token,Opus 4.7 的成本大概是 $125 + $125 = $250。Sonnet 4.6 會是 $60 + $75 = $135。Haiku 4.5 則是 $20 + $25 = $45。差距很直接。
所以問題不是「哪個最好」。問題是「哪個夠用」。很多團隊會想先上最強模型,但真的上線後,錢和延遲會教你做人。Anthropic 這次把選擇邊界畫得很清楚,算是幫你少踩幾個坑。
- Opus 4.7 適合複雜推理、長流程 agent、程式碼生成
- Sonnet 4.6 適合一般產品功能與成本控制
- Haiku 4.5 適合高併發、低延遲任務
- 價格差距很大,輸出成本最容易拉開總帳單
這份文件透露的,其實是 Anthropic 的產品策略
我覺得這次更新不只是文件整理。Anthropic 正在把 Claude 做成一套分層產品,而不是一顆萬用模型。這種策略很像雲端服務的產品線,先分清楚高階、中階、輕量,再讓開發者自己配。
這也代表 API 使用方式會更成熟。你不再只看 benchmark 分數。你還要看 context window、max output、alias、cloud endpoint、版本鎖定。對做 AI 產品的人來說,這些細節比模型宣傳影片重要太多。
如果你現在已經在用 Claude,下一步很簡單。先看你的工作負載。再看你到底是卡推理、卡成本,還是卡延遲。很多時候,Sonnet 就夠了。真的需要重推理和長輸出,再切到 Opus。
結論:先別迷信最大模型,先算帳
這次 Claude 文件更新,最有價值的地方不是 Opus 4.7 三個字,而是 Anthropic 把規則講清楚了。對開發者來說,這能少掉很多猜測,也能少掉很多錯配。
我的建議很直接。先把你的 API 成本、token 用量、輸出長度列出來。再決定要不要升到 Opus 4.7。很多團隊最後會發現,真正適合的不是最貴那顆,而是最剛好的那顆。