[IND] 7 分鐘閱讀OraCore 編輯部

OpenAI、奧特曼與信任危機

OpenAI從非營利起步到估值數千億美元,山姆·奧特曼的權力與公司治理正被重新檢視。

分享 LinkedIn
OpenAI、奧特曼與信任危機

OpenAI一開始不是普通新創。它在 2015 年以非營利形式成立。現在,它已經變成估值數千億美元的 AI 巨頭。這個落差很大,也很刺眼。

問題很直接。當一家公司說自己要讓 AGI 造福全人類,後來卻得靠成長、融資和產品速度活下去,它到底更像使命組織,還是商業機器?我覺得,這才是山姆·奧特曼最該被追問的地方。

OpenAI 的起點,和它後來走到哪裡

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

OpenAI 2015 年成立時,叙事很清楚。AI 可能比過去任何軟體都強。風險也可能更大。所以它選了非營利母體,加上有限盈利子公司的結構。講白了,就是想把安全優先寫進治理裡。

OpenAI、奧特曼與信任危機

這種設計在早期很合理。研究團隊可以先談安全,再談產品。可以先想風險,再想收入。可問題是,AI 不是做學術論文而已。它很快就會碰到伺服器成本、Token 成本、銷售壓力,還有投資人的回報期待。

Microsoft 投入數十億美元後,OpenAI 的位置就變了。ChatGPT 讓它從研究圈走到大眾市場。到 2024 年,外界普遍估計它的年化收入已達數十億美元級別。產品也從單一聊天工具,變成 API、企業方案、開發者平台一起跑。

  • 2015 年:OpenAI 以非營利形式成立
  • 2022 年:ChatGPT 讓它進入大眾視野
  • 2024 年:收入與估值都衝上高位
  • 產品範圍擴到 API、企業與消費端

這裡的重點很簡單。當一個產品有數億人碰過,任何治理失誤都不再是內部問題。它會直接變成公共事件。OpenAI 原本想用架構壓住這種壓力,結果自己先被壓力改寫。

奧特曼為什麼總讓人又想信任又想警惕

山姆·奧特曼的問題,不是他不會講故事。相反,他很會講。你可以聽到使命、長期主義、對人類有利。你也可以聽到速度、產品、競爭。前者讓人安心,後者讓市場興奮。麻煩的是,這兩套話術常常同時成立。

他很像那種能把理想和現實都講得順的人。這種人做 CEO 很強。因為他能讓研究員相信方向,也能讓投資人相信回報。但 AI 公司最怕的,就是一個人同時掌握敘事、節奏和外部信任。

The New Yorker》長期追蹤 OpenAI 的內部變化。它最刺眼的地方,不是某次衝突,而是那個老問題:如果公司把安全寫進章程,卻又得在競爭中加速,它到底先聽誰的?董事會、研究員、投資方,還是最會對外發聲的 CEO?

“Any organization that is building this kind of technology should be prepared to be transparent about the risks.” — Ilya Sutskever

這句話很直白。它講的是透明,也講的是風險。Ilya Sutskever 不是在講漂亮話,他是在提醒大家,做前沿 AI 的公司不能只會衝。可一旦產品化和商業化開始,透明常常會撞上保密、競爭和速度。

所以,對奧特曼的信任不能只看氣場。要看制度。要看他是否真的接受限制。否則,信任很容易變成對個人魅力的投射。

治理結構比口號更重要

如果只看口號,OpenAI 幾乎沒什麼好挑。它談安全、談對齊、談負責任部署。它也會發模型卡、系統說明和安全文件。這些都不差。可 AI 公司真正的分水嶺,不在口號,而在董事會能不能在關鍵時刻說不。

OpenAI、奧特曼與信任危機

2023 年 11 月那場董事會風波,很多開發者都記得。奧特曼先被解職,後來又快速回歸。這件事很像一次壓力測試。外界第一次清楚看到,這家公司的權力平衡其實不穩。你很難說那只是內鬥。它更像治理結構出現裂縫。

這件事對台灣開發者也有參考價值。因為我們常把 AI 公司想成模型公司,實際上它更像平台公司。平台一旦做大,治理就會比演算法更重要。誰能發版,誰能停版,誰能看風險報告,這些都比簡報上的願景更關鍵。

  • 非營利母體理論上要看人類安全
  • 盈利部門需要持續融資
  • 產品競爭要求更快發布
  • 安全治理要求更慢驗證

這四個目標很難一起最大化。現實裡,通常只有一個會贏。多半是最能帶來現金流和市場份額的那個。這也是很多人對 OpenAI 起疑的原因。

和其他 AI 公司比,OpenAI 特別在哪

把 OpenAI 和 AnthropicGoogle DeepMindMeta 放一起看,差異就很清楚。Anthropic 強調安全,品牌語氣比較保守。DeepMind 背靠 Google,研究能力很強,但商業目標很明確。Meta 則更直接,開源和平台分發是主軸。

OpenAI 最特別的地方,在於它同時扮演兩個角色。它是消費級 AI 的流量入口,也是 AI 安全敘事的最大傳播者之一。它一邊賣效率,一邊提醒你謹慎。這種雙重身份不稀奇,但它的規模太大了。大到每次轉向都會被放大檢視。

再看數字就更有感。ChatGPT 是歷史上成長速度很快的消費級應用之一。開發者把 OpenAI API 接進客服、搜尋、寫作和 coding 工具。企業則把它當成生產力底層。這和很多還停在試點階段的 AI 實驗室,很不一樣。

  • OpenAI:消費端、API、企業方案一起推
  • Anthropic:更偏安全與企業市場
  • Google DeepMind:研究強,分發靠 Google 生態
  • Meta:偏開源與平台分發

這代表 OpenAI 面對的不是單一競爭,而是三種打法同時夾擊。它得證明自己能賺錢,也能守邊界,還能維持信任。說真的,這組合很硬。

真正的問題不是奧特曼個人,而是權力怎麼被約束

把焦點全放在奧特曼身上,很容易把問題講窄。更大的問題是,當 AI 系統越來越強,誰有資格決定它們何時上線、如何訓練、出事時怎麼處理?這不是人格測驗。這是制度設計。

OpenAI 早就不只是研究組織。它是平台,也是基礎設施公司。它的一舉一動,都會被立法者、競爭對手和開發者拿來當參考。換句話說,它的治理方式會外溢到整個產業。

所以,對奧特曼的信任,不該建立在「他很有遠見」這種感覺上。應該看更硬的東西。董事會能不能真的制衡 CEO。安全評估有沒有公開。模型發佈有沒有可稽核標準。出事時誰負責。沒有這些,使命只是包裝。

我覺得,接下來最值得盯的,不是 OpenAI 又要發什麼新模型,而是它會不會把治理寫成可執行規則。如果做不到,市場還是會追它,但信任只會越來越薄。到下一次重大發佈時,大家真正該問的,可能不是模型多強,而是誰在說了算。

這場信任危機,會怎麼影響整個 AI 產業

OpenAI 的故事,其實也是整個 AI 產業的縮影。技術公司一旦跨過產品門檻,就會變成治理公司。模型越強,責任越重。這不是口號問題,是現實成本問題。資料、算力、伺服器、法遵,全部都會往上疊。

對台灣開發者來說,這件事也很實際。你今天用 GPT、Claude 或其他 LLM,明天就可能要考慮供應商風險、API 穩定性、資料外流、價格調整。AI 不是只有做出來而已。還要看誰控制更新節奏,誰決定停不停機。

這也是為什麼 OpenAI 的治理爭議,不能只當八卦看。它會影響企業採購,也會影響政府監管。更直接一點,會影響每個把 AI 接進產品的團隊。你依賴的不是模型本身而已。你依賴的是一整套決策機制。

最後要問的,不是信不信奧特曼

真正該問的問題是:一家握有強大 AI 能力的公司,能不能同時做到成長、透明和可問責?如果答案不能,那它再會講使命,也只是包裝得比較漂亮的商業公司。

OpenAI 可能還會繼續長大。奧特曼也可能繼續是那個最會把 AI 講給全世界聽的人。但對開發者和企業來說,下一步不該只看熱度。要看治理。要看權力怎麼分。要看誰能按下暫停鍵。這才是你該追的重點。