OpenAI、奧特曼與信任危機
OpenAI從非營利起步到估值數千億美元,山姆·奧特曼的權力與公司治理正被重新檢視。

OpenAI一開始不是普通新創。它在 2015 年以非營利形式成立。現在,它已經變成估值數千億美元的 AI 巨頭。這個落差很大,也很刺眼。
問題很直接。當一家公司說自己要讓 AGI 造福全人類,後來卻得靠成長、融資和產品速度活下去,它到底更像使命組織,還是商業機器?我覺得,這才是山姆·奧特曼最該被追問的地方。
OpenAI 的起點,和它後來走到哪裡
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
OpenAI 2015 年成立時,叙事很清楚。AI 可能比過去任何軟體都強。風險也可能更大。所以它選了非營利母體,加上有限盈利子公司的結構。講白了,就是想把安全優先寫進治理裡。

這種設計在早期很合理。研究團隊可以先談安全,再談產品。可以先想風險,再想收入。可問題是,AI 不是做學術論文而已。它很快就會碰到伺服器成本、Token 成本、銷售壓力,還有投資人的回報期待。
當 Microsoft 投入數十億美元後,OpenAI 的位置就變了。ChatGPT 讓它從研究圈走到大眾市場。到 2024 年,外界普遍估計它的年化收入已達數十億美元級別。產品也從單一聊天工具,變成 API、企業方案、開發者平台一起跑。
- 2015 年:OpenAI 以非營利形式成立
- 2022 年:ChatGPT 讓它進入大眾視野
- 2024 年:收入與估值都衝上高位
- 產品範圍擴到 API、企業與消費端
這裡的重點很簡單。當一個產品有數億人碰過,任何治理失誤都不再是內部問題。它會直接變成公共事件。OpenAI 原本想用架構壓住這種壓力,結果自己先被壓力改寫。
奧特曼為什麼總讓人又想信任又想警惕
山姆·奧特曼的問題,不是他不會講故事。相反,他很會講。你可以聽到使命、長期主義、對人類有利。你也可以聽到速度、產品、競爭。前者讓人安心,後者讓市場興奮。麻煩的是,這兩套話術常常同時成立。
他很像那種能把理想和現實都講得順的人。這種人做 CEO 很強。因為他能讓研究員相信方向,也能讓投資人相信回報。但 AI 公司最怕的,就是一個人同時掌握敘事、節奏和外部信任。
《The New Yorker》長期追蹤 OpenAI 的內部變化。它最刺眼的地方,不是某次衝突,而是那個老問題:如果公司把安全寫進章程,卻又得在競爭中加速,它到底先聽誰的?董事會、研究員、投資方,還是最會對外發聲的 CEO?
“Any organization that is building this kind of technology should be prepared to be transparent about the risks.” — Ilya Sutskever
這句話很直白。它講的是透明,也講的是風險。Ilya Sutskever 不是在講漂亮話,他是在提醒大家,做前沿 AI 的公司不能只會衝。可一旦產品化和商業化開始,透明常常會撞上保密、競爭和速度。
所以,對奧特曼的信任不能只看氣場。要看制度。要看他是否真的接受限制。否則,信任很容易變成對個人魅力的投射。
治理結構比口號更重要
如果只看口號,OpenAI 幾乎沒什麼好挑。它談安全、談對齊、談負責任部署。它也會發模型卡、系統說明和安全文件。這些都不差。可 AI 公司真正的分水嶺,不在口號,而在董事會能不能在關鍵時刻說不。

2023 年 11 月那場董事會風波,很多開發者都記得。奧特曼先被解職,後來又快速回歸。這件事很像一次壓力測試。外界第一次清楚看到,這家公司的權力平衡其實不穩。你很難說那只是內鬥。它更像治理結構出現裂縫。
這件事對台灣開發者也有參考價值。因為我們常把 AI 公司想成模型公司,實際上它更像平台公司。平台一旦做大,治理就會比演算法更重要。誰能發版,誰能停版,誰能看風險報告,這些都比簡報上的願景更關鍵。
- 非營利母體理論上要看人類安全
- 盈利部門需要持續融資
- 產品競爭要求更快發布
- 安全治理要求更慢驗證
這四個目標很難一起最大化。現實裡,通常只有一個會贏。多半是最能帶來現金流和市場份額的那個。這也是很多人對 OpenAI 起疑的原因。
和其他 AI 公司比,OpenAI 特別在哪
把 OpenAI 和 Anthropic、Google DeepMind、Meta 放一起看,差異就很清楚。Anthropic 強調安全,品牌語氣比較保守。DeepMind 背靠 Google,研究能力很強,但商業目標很明確。Meta 則更直接,開源和平台分發是主軸。
OpenAI 最特別的地方,在於它同時扮演兩個角色。它是消費級 AI 的流量入口,也是 AI 安全敘事的最大傳播者之一。它一邊賣效率,一邊提醒你謹慎。這種雙重身份不稀奇,但它的規模太大了。大到每次轉向都會被放大檢視。
再看數字就更有感。ChatGPT 是歷史上成長速度很快的消費級應用之一。開發者把 OpenAI API 接進客服、搜尋、寫作和 coding 工具。企業則把它當成生產力底層。這和很多還停在試點階段的 AI 實驗室,很不一樣。
- OpenAI:消費端、API、企業方案一起推
- Anthropic:更偏安全與企業市場
- Google DeepMind:研究強,分發靠 Google 生態
- Meta:偏開源與平台分發
這代表 OpenAI 面對的不是單一競爭,而是三種打法同時夾擊。它得證明自己能賺錢,也能守邊界,還能維持信任。說真的,這組合很硬。
真正的問題不是奧特曼個人,而是權力怎麼被約束
把焦點全放在奧特曼身上,很容易把問題講窄。更大的問題是,當 AI 系統越來越強,誰有資格決定它們何時上線、如何訓練、出事時怎麼處理?這不是人格測驗。這是制度設計。
OpenAI 早就不只是研究組織。它是平台,也是基礎設施公司。它的一舉一動,都會被立法者、競爭對手和開發者拿來當參考。換句話說,它的治理方式會外溢到整個產業。
所以,對奧特曼的信任,不該建立在「他很有遠見」這種感覺上。應該看更硬的東西。董事會能不能真的制衡 CEO。安全評估有沒有公開。模型發佈有沒有可稽核標準。出事時誰負責。沒有這些,使命只是包裝。
我覺得,接下來最值得盯的,不是 OpenAI 又要發什麼新模型,而是它會不會把治理寫成可執行規則。如果做不到,市場還是會追它,但信任只會越來越薄。到下一次重大發佈時,大家真正該問的,可能不是模型多強,而是誰在說了算。
這場信任危機,會怎麼影響整個 AI 產業
OpenAI 的故事,其實也是整個 AI 產業的縮影。技術公司一旦跨過產品門檻,就會變成治理公司。模型越強,責任越重。這不是口號問題,是現實成本問題。資料、算力、伺服器、法遵,全部都會往上疊。
對台灣開發者來說,這件事也很實際。你今天用 GPT、Claude 或其他 LLM,明天就可能要考慮供應商風險、API 穩定性、資料外流、價格調整。AI 不是只有做出來而已。還要看誰控制更新節奏,誰決定停不停機。
這也是為什麼 OpenAI 的治理爭議,不能只當八卦看。它會影響企業採購,也會影響政府監管。更直接一點,會影響每個把 AI 接進產品的團隊。你依賴的不是模型本身而已。你依賴的是一整套決策機制。
最後要問的,不是信不信奧特曼
真正該問的問題是:一家握有強大 AI 能力的公司,能不能同時做到成長、透明和可問責?如果答案不能,那它再會講使命,也只是包裝得比較漂亮的商業公司。
OpenAI 可能還會繼續長大。奧特曼也可能繼續是那個最會把 AI 講給全世界聽的人。但對開發者和企業來說,下一步不該只看熱度。要看治理。要看權力怎麼分。要看誰能按下暫停鍵。這才是你該追的重點。