[IND] 4 分鐘閱讀OraCore 編輯部

OpenAI 盯上 10GW 以上算力

OpenAI 正把美國資料中心擴建規劃推到 10GW 以上,並和夥伴一起評估各州站點。這篇整理它在找什麼、為何算力變成瓶頸,以及和其他雲端與 AI 基礎設施玩家怎麼比。

分享 LinkedIn
OpenAI 盯上 10GW 以上算力

OpenAI 正把美國資料中心擴建規劃推到 10GW 以上,算力和電力已經變成它最在意的瓶頸。

說真的,這不是一般的雲端擴容新聞。10GW 是電網等級的數字,不是多幾台伺服器而已。

OpenAI 也不是只喊口號。它已經和夥伴一起看美國各地站點,準備往更大規模走。

指標數值意思
初始算力目標10GW第一階段的容量門檻
規劃方向超過 10GW不是做到就停
評估範圍美國各地站點搜尋已經全國化

10GW 為什麼這麼誇張

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

先講白話,GW 是電力單位。你在看的是發電廠等級的需求,不是一般公司機房。

OpenAI 盯上 10GW 以上算力

這代表什麼?土地、變電、冷卻、水資源、許可,全都要一起算。少一項都會卡住。

對 AI 公司來說,算力就是生產線。訓練模型要算力,推理服務也要算力,少了就只能排隊。

  • 10GW 代表要跟電網和公用事業公司硬碰硬
  • 選址不只看地價,還看輸電和用水
  • 算力多寡會直接影響模型訓練排程
  • 產品上線速度也會被基礎設施拖住

OpenAI 到底在說什麼

核心意思很直白。10GW 不是終點,只是起跑線附近的一站。

OpenAI 和合作夥伴已經在看新站點。這表示後面真正麻煩的事,是把土地和電力真的接起來。

這也符合它近年的打法。OpenAI 越來越常把基礎設施放到台面上,跟模型本身同等重要。

“The world needs more AI infrastructure.” — Sam Altman,OpenAI CEO,2024 年 9 月在 X 發文。

這句話很直球。意思就是,需求還會往上衝,誰先卡到電力,誰就先拿到更多訓練和服務空間。

我覺得這種講法很務實。因為 AI 產業現在的瓶頸,很多時候不是演算法,是機房和電。

和其他玩家比,差在哪

OpenAI 不是唯一砸錢的人。OpenAIMicrosoftGoogle Cloud,還有 AWS 都在搶 AI 基礎設施

OpenAI 盯上 10GW 以上算力

但規模語言已經變了。以前大家講的是幾十 MW,現在直接跳到 GW。這不是同一個級別。

你可以把它想成兩種世界。一般企業資料中心像辦公大樓,AI 訓練園區更像工業區。

  • 一般企業機房多半是數十 MW 級
  • 大型 AI 園區已經在談數百 MW 到 GW
  • 電力可用性會先決定能不能蓋
  • 傳輸線、變電站和許可都會拉長時程

這也解釋了為什麼地點很重要。便宜土地沒用,沒電就是沒電。

有些州看起來條件好,結果卡在水源或審批。這種事在 AI 基礎設施圈很常見。

這波對產業代表什麼

這件事不只影響 OpenAI。它會把整個 AI 供應鏈都往前推,從晶片、機櫃,到變壓器和冷卻系統。

NVIDIA 這類晶片商來說,出貨不是唯一問題。客戶有沒有地方裝、能不能通電,才是下一關。

對雲端服務商來說,情況也一樣。誰能先拿到電力和站點,誰就能先接更多模型和 API 流量。

  • 晶片需求會跟著資料中心擴建走
  • 電力設備供應鏈也會被拉緊
  • 資料中心選址會更像基建決策
  • AI 服務價格可能跟基礎設施成本連動

這裡還有一個現實問題。AI 服務越多人用,推理成本就越高。

所以 OpenAI 往上堆算力,不只是為了訓練更大模型。它也在準備長期的服務流量。

背景其實很簡單

過去十年,雲端競爭比的是區域數量和 CDN。現在 AI 競爭比的是電、晶片和冷卻。

這種轉變很粗暴,但很真實。模型越大,對基礎設施的胃口就越大。

而且這不是短期現象。LLM 進入大規模商用後,推理流量會一直吃資源,根本停不下來。

另外,資料中心也不再是單一公司自己蓋完就好。現在通常要拉上電力公司、土地開發商、晶片供應商和雲端合作夥伴一起做。

這種協作模式很慢。可是一旦接上,規模就會很可怕。

接下來看什麼

接下來最值得盯的,不是 OpenAI 會不會再喊更大數字。真正重要的是它能不能把站點、電力和晶片一起落地。

如果後續出現電力合約、土地收購、變壓器訂單,這才算真的進入施工階段。

我會先看三件事。第一是美國哪個州先拿到案子。第二是合作夥伴名單。第三是 GPU 供應能不能跟上。

講白了,AI 公司的下一輪比賽不是誰最會寫模型,而是誰最會蓋電力工廠。這題現在才剛開始。