OpenAI 盯上 10GW 以上算力
OpenAI 正把美國資料中心擴建規劃推到 10GW 以上,並和夥伴一起評估各州站點。這篇整理它在找什麼、為何算力變成瓶頸,以及和其他雲端與 AI 基礎設施玩家怎麼比。

OpenAI 正把美國資料中心擴建規劃推到 10GW 以上,算力和電力已經變成它最在意的瓶頸。
說真的,這不是一般的雲端擴容新聞。10GW 是電網等級的數字,不是多幾台伺服器而已。
OpenAI 也不是只喊口號。它已經和夥伴一起看美國各地站點,準備往更大規模走。
| 指標 | 數值 | 意思 |
|---|---|---|
| 初始算力目標 | 10GW | 第一階段的容量門檻 |
| 規劃方向 | 超過 10GW | 不是做到就停 |
| 評估範圍 | 美國各地 | 站點搜尋已經全國化 |
10GW 為什麼這麼誇張
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
先講白話,GW 是電力單位。你在看的是發電廠等級的需求,不是一般公司機房。

這代表什麼?土地、變電、冷卻、水資源、許可,全都要一起算。少一項都會卡住。
對 AI 公司來說,算力就是生產線。訓練模型要算力,推理服務也要算力,少了就只能排隊。
- 10GW 代表要跟電網和公用事業公司硬碰硬
- 選址不只看地價,還看輸電和用水
- 算力多寡會直接影響模型訓練排程
- 產品上線速度也會被基礎設施拖住
OpenAI 到底在說什麼
核心意思很直白。10GW 不是終點,只是起跑線附近的一站。
OpenAI 和合作夥伴已經在看新站點。這表示後面真正麻煩的事,是把土地和電力真的接起來。
這也符合它近年的打法。OpenAI 越來越常把基礎設施放到台面上,跟模型本身同等重要。
“The world needs more AI infrastructure.” — Sam Altman,OpenAI CEO,2024 年 9 月在 X 發文。
這句話很直球。意思就是,需求還會往上衝,誰先卡到電力,誰就先拿到更多訓練和服務空間。
我覺得這種講法很務實。因為 AI 產業現在的瓶頸,很多時候不是演算法,是機房和電。
和其他玩家比,差在哪
OpenAI 不是唯一砸錢的人。OpenAI、Microsoft、Google Cloud,還有 AWS 都在搶 AI 基礎設施。

但規模語言已經變了。以前大家講的是幾十 MW,現在直接跳到 GW。這不是同一個級別。
你可以把它想成兩種世界。一般企業資料中心像辦公大樓,AI 訓練園區更像工業區。
- 一般企業機房多半是數十 MW 級
- 大型 AI 園區已經在談數百 MW 到 GW
- 電力可用性會先決定能不能蓋
- 傳輸線、變電站和許可都會拉長時程
這也解釋了為什麼地點很重要。便宜土地沒用,沒電就是沒電。
有些州看起來條件好,結果卡在水源或審批。這種事在 AI 基礎設施圈很常見。
這波對產業代表什麼
這件事不只影響 OpenAI。它會把整個 AI 供應鏈都往前推,從晶片、機櫃,到變壓器和冷卻系統。
對 NVIDIA 這類晶片商來說,出貨不是唯一問題。客戶有沒有地方裝、能不能通電,才是下一關。
對雲端服務商來說,情況也一樣。誰能先拿到電力和站點,誰就能先接更多模型和 API 流量。
- 晶片需求會跟著資料中心擴建走
- 電力設備供應鏈也會被拉緊
- 資料中心選址會更像基建決策
- AI 服務價格可能跟基礎設施成本連動
這裡還有一個現實問題。AI 服務越多人用,推理成本就越高。
所以 OpenAI 往上堆算力,不只是為了訓練更大模型。它也在準備長期的服務流量。
背景其實很簡單
過去十年,雲端競爭比的是區域數量和 CDN。現在 AI 競爭比的是電、晶片和冷卻。
這種轉變很粗暴,但很真實。模型越大,對基礎設施的胃口就越大。
而且這不是短期現象。LLM 進入大規模商用後,推理流量會一直吃資源,根本停不下來。
另外,資料中心也不再是單一公司自己蓋完就好。現在通常要拉上電力公司、土地開發商、晶片供應商和雲端合作夥伴一起做。
這種協作模式很慢。可是一旦接上,規模就會很可怕。
接下來看什麼
接下來最值得盯的,不是 OpenAI 會不會再喊更大數字。真正重要的是它能不能把站點、電力和晶片一起落地。
如果後續出現電力合約、土地收購、變壓器訂單,這才算真的進入施工階段。
我會先看三件事。第一是美國哪個州先拿到案子。第二是合作夥伴名單。第三是 GPU 供應能不能跟上。
講白了,AI 公司的下一輪比賽不是誰最會寫模型,而是誰最會蓋電力工廠。這題現在才剛開始。