[IND] 5 分鐘閱讀OraCore 編輯部

Anthropic 加碼 Google 與 Broadco…

Anthropic 與 Google、Broadcom 簽下多 GW TPU 算力合作,Claude 年化營收衝破 300 億美元,企業年支出逾百萬美元客戶數也快速翻倍。

分享 LinkedIn
Anthropic 加碼 Google 與 Broadco…

Anthropic 又丟出一張大單。這次是多 GW 的下一代 TPU 算力合作,首批容量預計 2027 年上線。說真的,這種等級的採購,不是先畫大餅才買,是需求已經大到得先卡位。

更猛的是營收數字。Anthropic 說,Claude 的年化營收已經衝到 300 億美元。到 2025 年底還只有約 90 億美元。企業客戶一年花超過 100 萬美元的數量,也從 500 多家跳到 1,000 多家。這不是慢慢長大,是直接加速踩油門。

Anthropic 到底簽了什麼

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

這份合作,核心是 Google TPU 算力。Anthropic 會透過 Google Cloud 取得多 GW 的新一代容量,Broadcom 也參與建置。首波容量預計 2027 年開始上線,而且多數部署會在美國。

Anthropic 加碼 Google 與 Broadco…

講白了,這不是單純買 GPU 或租機房。這是把 AI 模型訓練和推論,直接綁進一條更長的供應鏈。從晶片、伺服器,到資料中心電力,全部都要一起算。

Anthropic 也提到,Claude 已經跑在多種硬體堆疊上,包括 AWS Trainium、Google TPU,還有 NVIDIA 的 GPU。這代表它不是押單一架構,而是在不同成本與效能之間找平衡。

  • 多 GW 算力,代表規模不是小打小鬧。
  • 2027 才上線,顯示這是長期規劃。
  • 美國本土部署,和算力主權直接相關。
  • 多硬體並行,降低單一供應商風險。

營收數字為何這麼刺眼

300 億美元年化營收,對一家 AI 新創來說很誇張。更誇張的是,這個數字從約 90 億美元跳上來,時間還不到一年。這種成長速度,通常只會出現在平台型軟體,或是已經進入企業採購核心的產品。

企業客戶的變化也很有意思。年支出超過 100 萬美元的客戶,從 500 多家增加到 1,000 多家。這表示 Claude 不只是被拿來試玩,而是被塞進客服、程式開發、文件處理、知識搜尋這些實際流程裡。

我覺得這裡最重要的,不是營收高,而是營收結構變了。當企業把 AI 當成正式軟體預算,算力就不再是成本項目。它變成營收擴張的前提。

"We are entering a new era of AI infrastructure, and the demand is immense." — Dario Amodei

這句話是 Anthropic CEO Dario Amodei 說的。雖然這種話聽起來很像公關稿,但放在這份合作裡,還算貼切。因為他們真的在用錢和硬體,證明自己不是嘴上說說。

和其他 AI 公司比,差在哪

如果拿 Anthropic 跟 OpenAIGoogle Gemini 比,差異其實很明顯。OpenAI 走的是 Microsoft Azure 深度綁定。Google 自家則是 TPU 原生路線。Anthropic 這次等於把自己放進 Google 的硬體生態,卻又保留跨平台部署。

Anthropic 加碼 Google 與 Broadco…

這種打法有好處,也有壞處。好處是彈性高。壞處是協調成本也高。你今天要讓模型在 AWS、Google、NVIDIA 三邊都跑得順,軟體團隊就得處理更多編譯、排程、效能調校問題。

但如果看成本結構,TPU 對某些推論工作負載可能更划算。尤其當模型使用量暴增時,推論成本會吃掉很多毛利。這也是為什麼大公司現在都在拚自研晶片、專用加速器,因為通用 GPU 不一定是最便宜的答案。

  • OpenAI 偏 Azure 綁定。
  • Google 自家 TPU 原生。
  • Anthropic 走多雲、多硬體。
  • Broadcom 參與,意味著客製晶片鏈更深。

再看數字就更清楚。Anthropic 的企業年支出超過 100 萬美元客戶破 1,000 家。這種客戶不太會因為一點點價格波動就換平台。它們在意的是穩定、延遲、合規,還有能不能把 API 接進現有系統。

所以這份合作不是單純的採購新聞。它其實在說一件事:AI 模型公司正在變成基礎設施公司。誰能拿到更便宜、更穩的算力,誰就能撐住更大的商業規模。

這對台灣供應鏈有什麼意思

台灣讀者看到這裡,應該會立刻想到伺服器、散熱、電源和板卡。沒錯,這類多 GW 專案,最後都會落到硬體供應鏈。AI 伺服器不是只有晶片,還有機殼、電源模組、交換器、光模組,甚至資料中心的冷卻系統。

如果這波 TPU 擴張持續下去,台灣廠商會先感受到兩件事。第一,是高階伺服器需求更穩。第二,是規格更難搞。功耗、散熱、訊號完整性,這些都會繼續拉高門檻。

另一個背景是美國正在把 AI 算力視為戰略資產。這代表未來的資料中心投資,不只是商業決策,也會碰到政策、電力和供應鏈安全。對台灣來說,這是機會,也是壓力。

如果你在做軟體或基礎設施,這個趨勢也很直接。模型公司越大,API 使用量越高,後端服務就越需要做快取、批次推論、Token 控制和成本監控。講白了,AI 不會只吃掉前端產品,也會逼後端重寫很多東西。

接下來看什麼

我會盯兩個指標。第一,2027 年前這些 TPU 容量能不能準時上線。第二,Anthropic 的企業營收能不能繼續撐住現在的速度。只要其中一個掉速,這份大單的意義就會被打折。

如果你是開發者,現在最實際的問題不是「哪家模型最強」,而是「哪家算力成本比較穩」。因為未來兩年,AI 產品的競爭,很多時候不是比 demo,而是比每 1,000 Token 的成本、延遲和可用性。

所以我的判斷很直接:接下來會有更多 AI 公司去搶長約算力。你如果在做 SaaS、企業軟體,最好開始把推論成本當成核心指標來管。別等帳單來了才開始痛。