[MODEL] 7 分鐘閱讀OraCore 編輯部

Claude API 模型指南升級

Anthropic 把 Claude 文件重心放到 Opus 4.7,整理 1M token 上下文、128k 輸出上限、定價與跨雲模型 ID。

分享 LinkedIn
Claude API 模型指南升級

Anthropic 的 Claude 文件把 Opus 4.7 放到最上層,並把模型 ID、價格、上下文與雲端端點一次講清楚。

說真的,這頁很像文件版的選購指南。Claude models overview 直接把 Claude Opus 4.7Claude Sonnet 4.6Claude Haiku 4.5 排好。你不用再翻半天文件猜哪個適合。

更實際的是,AnthropicAmazon BedrockVertex AIMicrosoft Foundry 的差異也寫進去。對開發者來說,這種資訊比廣告詞有用多了。

ModelAPI IDInput priceOutput priceContext windowMax output
Claude Opus 4.7claude-opus-4-7$5 / MTok$25 / MTok1M tokens128k tokens
Claude Sonnet 4.6claude-sonnet-4-6$3 / MTok$15 / MTok1M tokens64k tokens
Claude Haiku 4.5claude-haiku-4-5-20251001$1 / MTok$5 / MTok200k tokens64k tokens

Opus 4.7 被放在最前面,不是偶然

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

Claude Opus 4.7 是 Anthropic 目前主推的高階模型。文件直接把它寫成最適合複雜推理和 agentic coding 的選項。這種寫法很直白,也很少見。

Claude API 模型指南升級

Anthropic 還提到,Opus 4.7 相比 Opus 4.6 在 agentic coding 有「step-change improvement」。講白了,就是它想讓你知道,這次升級不是小修小補。對寫程式、跑工具鏈、做長流程任務的人,這句話很有份量。

更重要的是,Anthropic 已經把選模邏輯講得很清楚。你要長上下文,就看 1M token。你要更強推理,就看 Opus。你要速度和成本平衡,就看 Sonnet。你要低延遲,就看 Haiku。

  • Opus 4.7:1M token 上下文,128k 輸出,$5 / MTok 輸入,$25 / MTok 輸出
  • Sonnet 4.6:1M token 上下文,64k 輸出,$3 / MTok 輸入,$15 / MTok 輸出
  • Haiku 4.5:200k token 上下文,64k 輸出,$1 / MTok 輸入,$5 / MTok 輸出
  • Opus 和 Sonnet 都支援 1M token,長文件差距沒以前那麼大

模型 ID 變得更硬,對 production 是好事

Anthropic 這次把 model ID 的規則講得更細。文件說,每個 Claude model ID 都是 pinned snapshot。只要 ID 裡有日期,它就是固定版本。從 4.6 世代開始,連沒有日期的 ID 也不是永遠指向最新,而是固定快照。

這對 production 很重要。你不會希望今天測過的模型,明天偷偷換行為。特別是客服機器人、法務摘要、程式碼生成這種場景,版本漂移常常比模型貴。

Anthropic 也把跨平台 ID 規則講清楚。AWS Bedrock 會用自己的命名法。Vertex AI 也有自己的 endpoint 規則。只有 Claude Platform on AWS 會盡量維持和第一方 API 一樣的 model ID。

“The best way to use a foundation model is to pick the smallest one that can do the job.” — Dario Amodei, Anthropic CEO

這句話放在這篇文件旁邊很合理。Anthropic 沒有叫你全都上最大模型。它是在逼你做選擇。對工程團隊來說,這反而比較健康,因為每個功能都能對應不同模型,而不是全部綁死在同一顆。

雲端端點才是很多團隊真正卡關的地方

很多人只看模型名稱,卻忽略部署地點。Anthropic 這次把 Claude 放在多個雲端平台上,包含 Claude APIAmazon BedrockVertex AIMicrosoft Foundry。這不是純技術問題,還牽涉採購、法規、區域限制。

Claude API 模型指南升級

文件也補了 endpoint 的差異。從 Sonnet 4.5 開始,Bedrock 有 global endpoints 和 regional endpoints。Vertex AI 還多了 multi-region endpoints。這些選項聽起來很枯燥,但對金融、醫療、政府案子來說,這就是能不能上線的差別。

還有一個很實用的細節。文件說 Max output 是針對同步 Messages API。某些模型在 Message Batches API 下,搭配 beta header,還能拉更高。這種資訊很像藏在角落的備註,但真的會影響架構設計。

  • Claude Platform on AWS 直接沿用第一方 Claude API IDs
  • Bedrock 提供 global 與 regional endpoints
  • Vertex AI 提供 global、multi-region、regional endpoints
  • Models API 會回傳 max_input_tokens、max_tokens、capabilities

和其他模型比,Anthropic 的路線更像工程文件

如果拿 Claude 跟 OpenAIGoogle 比,Anthropic 的文件風格真的比較偏工程師。它不是一直講願景,而是把 token、價格、alias、版本、端點全部列出來。

這種寫法有個好處。你可以直接做成本試算。假設一個產品每月吃 20M input token 和 5M output token,Opus 4.7 的成本大概是 $125 + $125 = $250。Sonnet 4.6 會是 $60 + $75 = $135。Haiku 4.5 則是 $20 + $25 = $45。差距很直接。

所以問題不是「哪個最好」。問題是「哪個夠用」。很多團隊會想先上最強模型,但真的上線後,錢和延遲會教你做人。Anthropic 這次把選擇邊界畫得很清楚,算是幫你少踩幾個坑。

  • Opus 4.7 適合複雜推理、長流程 agent、程式碼生成
  • Sonnet 4.6 適合一般產品功能與成本控制
  • Haiku 4.5 適合高併發、低延遲任務
  • 價格差距很大,輸出成本最容易拉開總帳單

這份文件透露的,其實是 Anthropic 的產品策略

我覺得這次更新不只是文件整理。Anthropic 正在把 Claude 做成一套分層產品,而不是一顆萬用模型。這種策略很像雲端服務的產品線,先分清楚高階、中階、輕量,再讓開發者自己配。

這也代表 API 使用方式會更成熟。你不再只看 benchmark 分數。你還要看 context window、max output、alias、cloud endpoint、版本鎖定。對做 AI 產品的人來說,這些細節比模型宣傳影片重要太多。

如果你現在已經在用 Claude,下一步很簡單。先看你的工作負載。再看你到底是卡推理、卡成本,還是卡延遲。很多時候,Sonnet 就夠了。真的需要重推理和長輸出,再切到 Opus。

結論:先別迷信最大模型,先算帳

這次 Claude 文件更新,最有價值的地方不是 Opus 4.7 三個字,而是 Anthropic 把規則講清楚了。對開發者來說,這能少掉很多猜測,也能少掉很多錯配。

我的建議很直接。先把你的 API 成本、token 用量、輸出長度列出來。再決定要不要升到 Opus 4.7。很多團隊最後會發現,真正適合的不是最貴那顆,而是最剛好的那顆。