[IND] 5 分鐘閱讀OraCore 編輯部

Apple 花 10 億美元救 Siri

Apple 傳出每年付 Google 10 億美元,讓 Gemini 幫 Siri 升級到 2026。這筆錢很大,也很誠實:蘋果自家 AI 進度沒追上,才會找外援補洞。

分享 LinkedIn
Apple 花 10 億美元救 Siri

Apple 傳出每年要付 Google Gemini 10 億美元。目的很直接,就是讓下一版 Siri 在 2026 年能上線。

這數字很誇張。對一間把硬體、軟體、服務都抓在手上的公司來說,這像是在說:自家 AI 還沒準備好,先買別人的來救火。

講白了,這不是一般合作案。這比較像 Apple 花大錢,買一個能用的答案。

Apple 到底買了什麼

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

目前流出的資訊看起來,Apple 不是單純呼叫公開 API。它拿到的是完整模型,跑在 Apple 自己的資料中心裡。

Apple 花 10 億美元救 Siri

另外,Apple 也能把大模型壓成小模型,再放到裝置端使用。這點很重要。因為 Siri 不會只是一層外殼,而是直接吃到 Google 的模型能力。

這種架構很 Apple。表面上還是 Apple 的產品,底層卻不是全自研。說真的,這很實際,也很現實。

  • 傳聞年費:約 10 億美元
  • 模型來源:Google Gemini
  • 目標產品:新版 Siri
  • 部署方式:Apple 資料中心 + 裝置端蒸餾模型
  • 預計時間:2026 年 WWDC

這種安排也透露一件事。Apple 想要的是速度,不是完美的純粹性。

如果它對自家 foundation model 有把握,就會繼續慢慢磨。現在直接外購,代表它想先把 Siri 做到能打,再談其他。

隱私敘事會變得很尷尬

Apple 很愛講隱私。這幾年它一直強調 on-device processing、Private Cloud Compute,還有資料不亂跑。

這套說法不是沒道理。Apple 的產品確實比很多廣告公司更重視保護使用者資料。但當 Siri 的核心能力來自 Google,這故事就沒那麼好講了。

Apple 可以說,使用者資料不會原封不動送去 Google。這可能是真的。可是,最強的 Siri 仍然建立在 Google 的模型上。信任關係已經改了。

“Privacy is a fundamental human right.” — Tim Cook, Apple CEO

這句話很有代表性。也正因如此,這筆合作才顯得刺眼。

一間把隱私當品牌核心的公司,最後還是得靠 Google 的模型,把助理做得像樣一點。

這很像 Apple Intelligence 沒跑順

Apple Intelligence 在 2024 年登場時,包裝得很漂亮。可是實際用起來,很多功能都只是小修小補。

Apple 花 10 億美元救 Siri

Siri 的老問題還在。它還是不太會處理多步驟任務,也不太懂跨 App 的上下文。你問它簡單事情,它還行。你要它像真正的助理,它就開始裝死。

我覺得這就是 Apple 的痛點。它不是沒有做 AI,而是做得還不夠快,也不夠好。

  • Apple Intelligence:2024 年推出
  • 實際體驗:有功能,但助理感不夠強
  • 競爭對手:OpenAIAnthropicMeta AI
  • Apple 的做法:先買 Gemini,再補內部能力

Apple 一直很擅長垂直整合。它自己做晶片,自己管作業系統,自己定義體驗。

但 AI 這件事很殘酷。你可以把機身做得很漂亮,卻不能只靠外觀騙過使用者。模型不夠強,產品就會露餡。

跟其他 AI 玩家比,差距很明顯

如果拿整個 AI 市場來看,Apple 這步很有意思。Google 把 Gemini 放進 Search、Android、Workspace。OpenAI 直接賣模型和助理。Anthropic 主打 Claude,吃工作和程式開發場景。

Apple 則是反過來。它保留 Siri 的品牌,卻把最核心的模型層外包出去。這對一家講求控制權的公司來說,真的不太好看。

但從產品角度講,這也很合理。因為現在的模型競爭,已經不是「有沒有 AI」而已,是「誰的模型真的好用」。

  • Google:Gemini 深度整合自家產品
  • OpenAI:主打通用助理與 API 生意
  • Anthropic:Claude 走高信任與工作流
  • Apple:保住 Siri 名字,借用模型能力

這裡還有一個很實際的訊號。模型品質還是硬門檻。

介面可以抄,功能可以跟,品牌也可以包裝。但底層模型不夠強,使用者一秒就會感覺出來。

這件事對產業的意思

Apple 這次找外援,等於承認一件事。AI 不是單靠行銷就能補起來的。

對台灣開發者來說,這件事很值得看。因為你會發現,現在最值錢的不是「有沒有做 AI 功能」,而是「有沒有拿得出手的模型、資料、算力和部署能力」。

很多產品團隊都愛說自己是 AI-first。可是如果底層模型撐不起來,前面那句話就只是簡報上的字。

Apple 這次花 10 億美元,某種程度上也在提醒大家:真正難的不是把 AI 接進產品,而是把它做穩、做快、做得讓人願意天天用。

2026 年 Siri 會變怎樣

我猜 Apple 到 2026 年,會先端出一個明顯更像樣的 Siri。它應該會更會答題,也更能理解上下文。

但更大的問題是,這會不會只是過渡方案。如果 Apple 之後還是長期依賴 Gemini,那 Siri 就會變成一個披著 Apple 外皮的外部模型產品。

如果 Apple 真的想把這件事收回來,它接下來兩年就得拼命縮小對 Google 的依賴。這不會很輕鬆。

我自己的判斷很直接:Apple 會先求能用,再慢慢補自家模型。因為使用者不會先問架構,使用者只會問 Siri 到底有沒有變聰明。

所以接下來值得盯的,不只是 Siri 會不會升級,而是 Apple 會不會把這次合作,變成一個短期補丁。

如果你是開發者,我會建議你盯 WWDC 2026。看 Apple 會不會把新版 Siri 的能力開給第三方 App。那會告訴你,這次到底只是救火,還是 Apple 開始接受 model-first 的現實。