阿里巴巴 RISC-V AI CPU 進軍伺服器
阿里巴巴 DAMO 推出 64 位元 RISC-V CPU,最高 3.2 GHz、採 TSMC 5nm,瞄準 agentic AI 與伺服器推論,直接碰 Arm、x86 和 Nvidia 的地盤。

阿里巴巴的DAMO Academy又丟出一個數字:64 位元、多核心 RISC-V CPU,最高 3.2 GHz,還用上TSMC 5nm 製程。這顆晶片不是拿來做展示品。它瞄準的是 agentic AI,也就是會規劃、會呼叫工具、還會記住上下文的軟體。
講白了,阿里巴巴想把 AI 軟體和底層硬體一起抓在手上。
這件事很有意思。阿里巴巴不是第一次碰 RISC-V,但這次明顯更像伺服器路線。官方說法是,這是延續 2024 年雲端模型、以及 2025 年伺服器晶片之後的下一步。對開發者來說,重點不是「有沒有新晶片」,而是它能不能真的進資料中心,幫雲端服務省錢。
阿里巴巴到底做了什麼
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
這顆 CPU 是 64 位元、多核心設計。它還有一個專有 tensor engine,直接透過 RISC-V extension 跟核心叢集連在一起。翻成白話,就是阿里巴巴把一部分 AI 運算塞進 CPU 本體,不是每次都丟給外部加速器處理。

這種設計的好處很直接。資料搬運少一點,快取重用高一點,耗電也可能低一點。對 agentic AI 來說,這比單次大推論更重要。因為它不是只跑一輪,而是很多輪思考、查詢、記憶和回應。
阿里巴巴還說,這顆晶片可以原生跑數百億參數以上的 foundation model。這句話聽起來很猛,但我會先保留。真正的考驗不是簡報,而是上雲後的吞吐量、延遲和成本。
- 架構:RISC-V,不是 Arm 或 x86
- 製程:TSMC 5nm
- 最高時脈:3.2 GHz
- 整數 benchmark:超過 70 分
- 目標場景:agentic AI 與雲端推論
這幾個數字放在一起看,味道就出來了。阿里巴巴不是只想做一顆「能跑」的 CPU。它想做一顆「適合自己雲端工作負載」的 CPU。這是兩回事。
而且它還把 tensor 能力跟核心整合在一起。這代表它不是單純複製既有伺服器 CPU 的玩法。它想把 AI 計算路徑縮短,讓更多工作留在晶片內部完成。
為什麼 RISC-V 這麼重要
RISC-V 最大的賣點很簡單:開放。公司可以自己改指令集,不用像 Arm 那樣付授權費,也不用像 x86 那樣受制於既有生態。對想自己調硬體的人來說,這很香。
在中國市場,這件事更敏感。供應鏈壓力一直都在,很多公司都想把更多控制權拿回來。RISC-V 就變成一條可走的路。不是因為它天生比較強,而是因為它比較能自己掌握。
阿里巴巴這步棋,也在挑戰一個老觀念:只有 Arm 和 x86 才能做認真的伺服器 CPU。它現在不是要在通用運算全面打贏,而是要在工作負載適配、成本控制、以及跟自家 AI 服務的整合上贏。
“We are looking at ways to make it easier for customers to create, deploy, and manage AI models.” — Alibaba Cloud CEO Eddie Wu
這句話很直白。阿里巴巴做晶片,不是為了秀技術。它是想讓雲端 AI 更便宜,也更容易部署。對雲廠來說,這才是會算帳的地方。
如果推論成本能壓下來,AI 服務的定價就有空間。對開發者來說,這可能比單純的峰值算力更有感。因為你最後付的是帳單,不是晶片海報。
它跟 Apple、Huawei、Nvidia 怎麼比
原始素材提到,阿里巴巴這顆 CPU 的效能和效率,接近 Apple 的消費級晶片。這種比法可以看,但不能直接拿來下結論。Apple 強在單核效能和功耗控制,阿里巴巴則是瞄準伺服器和 AI 推論。

阿里巴巴也說,這顆新 CPU 的單執行緒整數效能,比Huawei現有伺服器 CPU 高出兩倍以上的 instructions per clock。這代表它想在中國伺服器市場直接對打,不是只在自家雲裡做內部優化。
加速器部分,阿里巴巴還是很務實。它已經推出平行運算單元,要跟部分Nvidia晶片競爭,但短期內仍計畫採購 Huawei 最新推論加速器。這表示它知道轉換期不會太短,不能一口氣全押自研。
- 阿里巴巴新 CPU:5nm、3.2 GHz、64 位元多核心
- 整數 benchmark:超過 70 分
- Huawei 對比:單執行緒整數 IPC 高出 2 倍以上
- T-Head 累計出貨:超過 470,000 顆
- T-Head 年營收:近年逼近 100 億人民幣
這些數字很有意思。470,000 顆聽起來不算巨量,但放在自研晶片裡,已經不是玩票。它代表阿里巴巴至少有能力把晶片送進某些實際場景。
不過,別急著把它跟全球 x86 或 Arm 伺服器出貨量相比。那不是同一個量級。阿里巴巴現在的價值,不在市場總量,而在它能不能在自己的雲裡形成成本優勢。
這其實是全棧 AI 戰
阿里巴巴做晶片,不是單點事件。它是在拼一條完整鏈路,從硬體、雲端、模型,到協作軟體和代理工具,全都想自己掌握。這樣一來,AI 服務的成本和節奏才比較好控。
這也跟中國整體的算力策略有關。美國出口管制讓高階 AI 加速器變得不好買。很多中國公司只好分散硬體風險,一邊買現成貨,一邊自己養晶片團隊。阿里巴巴就是這種雙軌策略的代表。
我覺得這種做法很現實。沒有公司會傻到等自研晶片成熟才做產品。該買的還是要買,該做的還是要做。只是長線來看,能自己控制更多層級的公司,談成本時會比較硬。
對開發者和 SRE 來說,這種變化很實際。如果雲廠把部分 AI 工作搬到自家 RISC-V CPU,上層的 instance 型號、價格、延遲,甚至配額,都可能跟著變。你不一定馬上感受到,但帳單會先告訴你。
產業脈絡沒那麼浪漫
先說結論。RISC-V 不會一夕之間取代 Arm,也不會直接把 x86 打趴。它比較像一種工程選項。當公司想要更高控制權、更低授權成本,還有更貼身的工作負載設計時,它就變得有吸引力。
這幾年大家一直在講 AI 伺服器,但很多討論都太浮。真正卡住的,常常是功耗、記憶體頻寬、PCIe 通道數,還有供應鏈。晶片架構只是其中一塊,但它會決定你能不能把其他零件拼起來。
阿里巴巴這次的訊號很清楚:它想把「雲端買算力」改成「雲端自己造算力」。這件事不會很快完成,但一旦跑順,影響的就不只是晶片團隊,還有產品、採購、以及雲端定價。
從產業角度看,這也是中國雲廠的共同題目。誰能把 AI 推論成本壓低,誰就比較有機會在企業市場拿到長約。硬體不是全部,但它會直接反映在毛利上。
接下來該看什麼
我會盯兩件事。第一,這顆 RISC-V CPU 會不會真的進到阿里雲的正式 instance。第二,它在真實 workload 下,能不能把每 token 成本壓下來。
如果這兩件事都成立,阿里巴巴就不只是多一顆晶片,而是多一套可重複的雲端成本模型。那時候,其他雲廠也會開始想:我們有沒有必要自己做一顆?
我的判斷是,接下來 12 到 18 個月會很關鍵。這段時間會看出來,阿里巴巴的 RISC-V 路線是內部優化,還是會變成更大規模的伺服器策略。你如果是做雲端架構或 AI 產品,現在就該開始問供應商一句話:你的推論成本,是不是還有機會再降?
這問題很土,但很重要。因為最後真正決定誰能活得久的,通常不是簡報,而是單位成本。