[IND] 3 min readOraCore Editors

OpenAI、奥特曼与信任危机

OpenAI从非营利起步到估值千亿美元,奥特曼的权力和公司治理正被重新审视。

Share LinkedIn
OpenAI、奥特曼与信任危机

OpenAI最初不是一家普通创业公司。它在2015年以非营利形式起步,创始人包括OpenAI的山姆·奥特曼、伊利亚·苏茨克弗、格雷格·布罗克曼和埃隆·马斯克,他们把人工智能描述为一种可能改变人类命运的技术。今天,OpenAI已经变成一家估值数千亿美元、产品覆盖数亿用户的公司,这个反差本身就足够刺眼。

问题也随之变得简单而直接:如果一家公司的目标曾经是“让通用人工智能造福全人类”,那它现在究竟更像一家使命驱动机构,还是一家必须持续增长的商业机器?这篇文章讨论的核心,不是奥特曼是否聪明,而是他是否值得被赋予如此大的信任。

OpenAI的起点,和它后来走到的地方

Get the latest AI news in your inbox

Weekly picks of model releases, tools, and deep dives — no spam, unsubscribe anytime.

No spam. Unsubscribe at any time.

OpenAI成立时的叙事很清晰:AI的能力可能远超过去任何一项技术,风险也可能远超过去任何一次软件浪潮。于是,公司选择了非营利母体加有限盈利子公司的结构,试图把“安全优先”写进治理框架里。这个设计在当时听起来很克制,也很理想主义。

OpenAI、奥特曼与信任危机

但现实很快把理想主义推到了边上。随着Microsoft投入数十亿美元,OpenAI的产品开始进入主流市场,ChatGPT迅速成为全球最知名的AI产品之一。到2024年,OpenAI的年化收入被多家媒体估算已达到数十亿美元级别,用户规模也从早期研究圈扩展到普通办公室、学校和开发者社区。

这类扩张会带来一个很现实的变化:当产品被数亿人使用时,任何治理失误都不再是内部争议,而是公共事件。OpenAI的组织结构本来是为了压住这种压力,结果它自己先被压力改写了。

  • 2015年:OpenAI以非营利形式成立
  • 2022年:ChatGPT发布后,用户增长进入爆发期
  • 2024年:OpenAI成为全球最受关注的AI公司之一
  • 微软向OpenAI投入了数十亿美元级别资金

奥特曼为什么总让人又想信任又想警惕

山姆·奥特曼的问题不在于“会不会讲故事”,而在于他太擅长同时讲两种故事:一种是关于使命、长期主义和人类利益,另一种是关于速度、产品和市场份额。前者让人安心,后者让投资人兴奋。真正麻烦的是,这两种叙事经常同时成立。

《纽约客》长期关注OpenAI内部权力变化的报道里,最刺眼的不是某一次冲突,而是一个更大的矛盾:如果一个组织把“安全”写进章程,却又必须在竞争中持续加速,它到底会优先听谁的?董事会、研究人员、投资方,还是那个最会对外发声的CEO?

这里没有阴谋论可讲,只有治理问题。奥特曼过去多次被批评过度自信,也多次被赞赏为极强的执行者。两种评价都可能是真的。对一家AI公司来说,这种人格特征既是优势,也是风险。

“Any organization that is building this kind of technology should be prepared to be transparent about the risks.” — Ilya Sutskever

这句话之所以重要,是因为它点出了OpenAI最初的自我要求:透明、克制、对风险保持敬畏。可当公司进入产品化和商业化阶段,透明往往会和竞争、保密、速度发生冲突。OpenAI今天面对的,不是“该不该做AI”,而是“谁来决定做多快、做多大、做到什么程度”。

治理结构比口号更重要

如果只看口号,OpenAI几乎无可挑剔。它谈安全、谈对齐、谈负责任部署,还会公开发布模型卡、系统说明和安全评估。可AI公司真正的分水岭从来不是口号,而是董事会能不能在关键时刻说“不”。2023年11月,OpenAI曾经历一次震动全行业的董事会风波,奥特曼被短暂解职,随后又迅速回归。那场事件让外界第一次如此直观地看到:这家公司内部的权力平衡并不稳定。

OpenAI、奥特曼与信任危机

更重要的是,这类事件不是一次性的八卦,而是治理结构的压力测试。一个训练前沿模型的公司,如果连董事会与CEO之间的边界都说不清,外界很难相信它能稳定处理更复杂的问题,比如模型失控、数据滥用、自动化欺诈,或是未来更强系统的部署节奏。

  • 非营利母体理论上要优先考虑人类安全
  • 盈利部门需要持续融资和扩张
  • 产品竞争要求更快发布
  • 安全治理要求更慢验证

这四个目标很难同时最大化。现实里,通常只有一个会真正占上风,而那往往是最能带来现金流和市场份额的那个。

和其他AI公司比,OpenAI到底特殊在哪

把OpenAI和AnthropicGoogle DeepMindMeta放在一起看,会更容易理解它的特殊性。Anthropic同样强调安全,但它的品牌叙事更偏向“宪法式AI”和可控性;DeepMind背靠Google,研究能力很强,但商业目标更清晰;Meta则更直接,把开源模型和平台分发作为核心策略。

OpenAI最特别的地方在于,它既是消费级AI产品的最大流量入口之一,也是“AI安全叙事”的最强传播者之一。它一边卖给你效率,一边提醒你要谨慎。这样的双重身份并不罕见,但在规模和影响力上,OpenAI把这种张力放大到了极致。

再看数字就更直观了。ChatGPT在短时间内成为历史上增长最快的消费级应用之一,开发者通过OpenAI API把模型接进客服、搜索、写作和编程工具里,企业客户则把它当作生产力基础设施。对比之下,很多AI实验室仍然主要停留在研究、试点或企业合同阶段。

  • OpenAI:消费级产品、API、企业方案同时推进
  • Anthropic:更强调安全和企业市场
  • Google DeepMind:研究能力强,分发依托Google生态
  • Meta:偏开源和平台分发

这意味着OpenAI面对的不是单一竞争,而是三种不同打法的同时夹击。它要证明自己既能赚钱,又能守住边界,还能继续被公众信任,这几乎是最难的组合题。

真正的问题不是奥特曼个人,而是权力怎么被约束

把焦点全部放在奥特曼身上,很容易把问题讲窄。更大的问题是:当AI系统越来越强,谁有资格决定它们何时上线、如何训练、出现异常时如何处理?这不是一场关于个人品德的辩论,而是一场关于制度设计的考试。

OpenAI已经不再只是一个研究组织。它是一个平台、一家基础设施公司,也是全球AI监管讨论中的样板案例。它的一举一动都会被复制、被质疑、被立法者拿来当参考。换句话说,它的治理方式会外溢到整个行业。

所以,对奥特曼的信任不该建立在“他看起来很有远见”这种感觉上,而应该建立在更硬的东西上:董事会是否真能制衡CEO,安全评估是否公开到足够程度,模型发布是否有可审计的标准,出了问题谁来承担责任。没有这些,任何宏大使命都只是包装。

接下来更值得关注的,不是OpenAI又会发布什么新模型,而是它会不会继续把治理变成可执行的规则。如果答案是否定的,那么市场会继续追捧它,但公众对它的信任只会越来越薄。等到下一次重大模型发布时,真正该问的问题也许会更直接:我们到底是在使用工具,还是在接受一家公司的判断?