Claude Opus 4.5 和 GPT 到底多大
GPT-4 常被估到 1.6 兆參數,但 GPT-4o 可能只有 200B 到 300B。Claude Opus 4.5 的真實大小沒公開,重點其實是成本、延遲和效能比。

大家常把前沿 AI 想成「越大越猛」。但這件事,現在沒那麼直線了。GPT-4 曾被外界估到 1.6 兆參數。GPT-4o 的估計卻掉到 200B 到 300B。差很多,真的差很多。
這也讓 Anthropic 的 Claude Opus 變得更有意思。官方沒講參數數字,但市場早就不只看大小。大家更在意成本、延遲、吞吐量,還有模型到底能不能把活做好。
講白了,參數數量不是全部。可它還是很有參考價值。因為它會直接影響訓練成本、伺服器成本,還有產品能不能大規模上線。對開發者來說,這比「聽起來很大」重要太多。
參數大小,為什麼還是很重要
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
參數數量是一個粗糙指標。可是它很常反映現實世界的帳單。模型越大,訓練通常越貴。推論時也更吃 GPU,尤其是 dense model。

如果一個模型接近 1.6T 參數,那它的運行壓力就很大。反過來,200B 到 300B 的模型,通常更容易壓低服務成本。這也是為什麼很多公司開始追求更精簡的架構。
但你也不能只看數字。資料品質、訓練配方、MoE 路由、後訓練、工具調用,這些都會改變結果。說真的,有時候一個比較小的模型,實際用起來反而更順。
- GPT-4:外界常估約 1.6T 參數
- GPT-4o:常見估計落在 200B 到 300B
- Claude Opus:官方沒公開參數數字
- 推論成本:通常跟模型大小高度相關
公開線索到底透露了什麼
OpenAI 沒公開 GPT-4 和 GPT-4o 的參數數字,所以外界只能從間接線索拼圖。研究者會看模型表現、基礎設施痕跡、以及和合作夥伴相關的公開資訊。這不是精準答案,但方向很清楚。
GPT-4 長期被當成超大模型。1.6T 這個數字在技術圈流傳很久。到了 GPT-4o,敘事就變了。它更快,也更像是「夠大,但沒大到離譜」的那一類。
這裡可以直接引用一個老實又經典的觀點。Richard Sutton 在 The Bitter Lesson 裡寫過一句話,現在還是很有殺傷力。
“The bitter lesson is that general methods that leverage computation are ultimately the most effective, and by a large margin.” — Richard Sutton
這句話的意思很直接。別太迷信手工巧思。真正能打的系統,常常是把算力和訓練方法吃滿。只是現在多了一層:不一定要把參數做得超大,才叫強。
Claude Opus 4.5 可能走哪條路
Claude 4 系列沒有公開參數數字。這很正常。前沿模型廠商現在幾乎都不愛講這件事。因為市場已經不太買單單純比大小了。

Anthropic 近年的重點很明顯。它很在意 coding、長上下文、工具使用,還有 agent 工作流。這些能力對產品比較實際。你拿來寫程式、整理文件、跑流程,才真的有感。
所以如果 Claude Opus 4.5 或 4.6 的參數規模,落在 GPT-4o 類似區間,我一點也不意外。現在的競爭重點,早就不是誰喊出最大數字,而是誰用更少成本做出更好的體驗。
- Anthropic 沒公開 Claude Opus 的參數數字
- OpenAI 也沒公開 GPT-4 系列的完整大小
- GPT-4o 的 200B 到 300B,明顯低於 1T 級別想像
- 較小部署腳印,通常更利於大規模上線
對開發者和買家,差在哪裡
如果你真的要選模型,別只盯著排行榜。很多產品根本不需要 1.6T 那種級別。200B 到 300B 的模型,只要速度夠快、價格合理、回答品質穩,就已經很夠用。
這對 SaaS 團隊很重要。因為 AI 成本現在常常不是訓練,而是每天的推論帳單。只要使用量一上來,GPU 成本就會咬人。模型越能省,產品越容易活下來。
還有一個現實問題。你要做的是客服、摘要、程式輔助,還是多步驟 agent?不同任務對模型的要求差很多。對很多場景來說,延遲低 30%,比參數多 3 倍更有感。
- 訓練成本:通常會隨模型規模快速上升
- 服務成本:常是 AI 產品真正的瓶頸
- 延遲:模型越精簡,通常回應越快
- 產品適配:coding、摘要、agent 常看效率,不看面子
為什麼大家開始少談參數
這幾年,模型廠商越來越少公開參數數字。原因很簡單。第一,大家學會了參數不是全部。第二,公開太多,競爭對手也能更快推測架構方向。
另外,市場也變成熟了。以前大家會拿 7B、13B、70B 互相比。現在更常問的是:上下文長度多少?工具調用穩不穩?coding 表現如何?價格每百萬 Token 幾美元?
我覺得這是好事。因為這代表討論終於回到實用面。開發者要的不是一個好看的數字,而是一個能穩定跑在產品裡的模型。
所以 Claude Opus 4.5 到底多大
老實說,外部沒辦法精準知道。沒有官方數字,就只能看公開線索和產品表現。可是方向已經很清楚了:前沿模型正在往更高效率走。
如果 Claude Opus 4.5 真的跟 GPT-4o 站在同一個量級,那它的重點就不是「多大」,而是「每個參數能做多少事」。我會押注這條路。接下來你該看的,也不是誰喊出更誇張的數字,而是誰能把成本壓低,還維持品質。
對開發者來說,最實際的問題只有一個:你的產品,真的需要超大模型嗎?很多時候,答案其實是否定的。