Apple Siri 牽手 Gemini 的真相
Apple 付費取得 Google Gemini 的資料中心存取權,目標是蒸餾出更小的模型,塞進 Siri 和裝置端 AI。這招很務實,也很 Apple。

Apple 這次不是單純買 API。它買的是 Google Gemini 在資料中心的完整使用權。然後再拿來訓練更小的模型,塞回 Apple 自家裝置。
講白了,這是「大模型教小模型」的蒸餾路線。重點不是把 Gemini 直接搬進 iPhone。重點是把它的能力壓縮成 Apple 跑得動的版本。
這件事很 Apple。它一向討厭把太多東西丟上雲端。可是在生成式 AI 這題上,硬體限制和隱私要求一起卡住,Apple 只好找外援。
Apple 到底買了什麼
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
《The Information》的說法很直接。Apple 和 Google 有一份協議。Apple 可以在資料中心完整使用 Gemini。不是只拿到一個薄薄的 API 包裝。
這差很多。因為 Apple 要的不是聊天框。它要的是訓練素材。它想用 Gemini 當老師,去教自己的 student model。
這種做法很適合手機。因為手機最怕三件事:記憶體不夠、電池掉太快、延遲太高。大型 LLM 很猛,但不一定適合塞進 iPhone。
所以 Apple 真正在買的,是訓練效率。它買的是一條比較短的路。不是終點。
- Apple 拿到的是資料中心層級的 Gemini 存取權。
- 目標是蒸餾出更小的模型。
- 小模型要適合 iPhone 和其他 Apple 裝置。
- 重點是降低推論成本,不是追求最大參數量。
為什麼蒸餾比新聞標題更重要
模型蒸餾不是新招。大模型先產生答案、標註或行為軌跡,再讓小模型學。這樣做,學生模型通常沒那麼全能,但速度快很多,吃的資源也少很多。
對 Apple 來說,這幾乎是唯一合理的路。Siri 被罵很久了。你如果直接把巨型模型放進每支 iPhone,成本和耗電都會很難看。
Apple 自己也早就在走效率路線。它的 Apple Machine Learning Research 很多東西都偏向裝置端。它不是要最大,而是要最省。
這種策略很像 Apple 一貫的產品哲學。少一點炫技,多一點整合。少一點雲端依賴,多一點本機處理。
你可以把兩種模型簡單比一下:
- 大模型:懂很多,但很吃算力。
- 小模型:懂得少一點,但跑得快。
- 雲端助手:容易升級,但很吃網路。
- 裝置端助手:更私密,但訓練門檻更高。
這對 Siri 和 Apple Intelligence 代表什麼
Apple 的 Apple Intelligence 路線很清楚。它想把 AI 做成系統功能,不是做成一個獨立聊天頁面。這種設計會直接壓到 Siri 的表現。
因為 Siri 不只要會回答。它還要會改寫文字、整理摘要、理解上下文,甚至跨 App 做事。這些功能都很吃模型品質。
Gemini 這條線,等於幫 Apple 補訓練資料。Apple 可以拿更強的 teacher model,去磨自己的小模型。理論上,這會讓 Siri 更像樣。
但別把蒸餾想得太神。小模型會變快,沒錯。可如果 Apple 切得太狠,能力也會一起縮水。速度變快,不代表真的變聰明。
“There are no shortcuts to building a great product.” — Tim Cook, Apple CEO, Apple Q3 2016 earnings call.
這句話拿來看今天的 Siri,還是很準。Apple 可以借 Google 的訓練能力。可最後的體驗,還是要看它怎麼整合進 iOS、Shortcuts、Messages、Mail。
如果整合做不好,模型再強也沒用。使用者只會覺得 Siri 還是那個老樣子。
Apple 跟其他 AI 玩家怎麼比
Apple 的路線,跟 OpenAI 和 Google 很不一樣。OpenAI 主打大模型和聊天體驗。Google Gemini 則是把模型塞進搜尋、Android 和雲端服務。
Apple 反過來。它先看裝置能不能跑,再看模型能不能縮。這很慢,但很符合它的硬體生意。
另外,Anthropic 也是值得參考的對手。它在企業和助理型產品裡,走的是比較穩的模型路線。Apple 這次的選擇,某種程度也反映出市場已經進入「誰能把模型塞進真實產品」的階段。
如果只看數字,差距就很現實。大型 frontier model 常常需要更大的記憶體和算力。手機端模型則要在有限電量下,維持低延遲回應。這不是同一個戰場。
- OpenAI:偏向通用能力和聊天入口。
- Google:偏向雲端整合和搜尋分發。
- Apple:偏向裝置端、系統整合、隱私。
- Anthropic:偏向企業應用和助理型工作流。
所以這次合作的重點,不是誰比較強。重點是誰能把強模型,變成可部署的小模型。這才是手機 AI 的現實。
這其實是 Apple 的老套路
Apple 很少第一個跳下去。它通常先看別人把坑踩完,再把東西做成產品。這次 AI 也差不多。它沒有急著跟所有人拼公開聊天機器人。
它先把重點放在系統功能。像照片、語音、搜尋、摘要,這些都比較像底層能力,不像單獨的 AI 產品頁。
這種做法有一個好處。使用者不需要學新介面。AI 直接藏在系統裡。你打字、修圖、找資料,它自己出現。
但這種做法也有風險。因為一旦 Siri 還是卡卡的,使用者會直接怪 Apple。沒人會管你背後是不是用了 Gemini。
我覺得 Apple 這次最聰明的地方,是它沒有硬拚「最大模型」。它拚的是「最適合裝置的模型」。
背景脈絡:為什麼現在非做不可
生成式 AI 已經變成平台基本盤。手機作業系統如果沒有 AI 功能,體驗就會顯得落後。這不是行銷問題,是產品節奏問題。
同時,使用者也越來越在意資料去哪裡。把每個問題都丟到雲端,對 Apple 來說本來就不漂亮。尤其是在 iPhone 這種靠信任吃飯的產品上。
所以 Apple 必須找一個折衷。它需要更好的模型能力,也需要控制資料流向。Gemini 蒸餾方案,剛好卡在這個中間點。
這也是為什麼很多人會把這件事看得很大。不是因為合作本身多華麗。是因為它說明 Apple 已經接受一件事:單靠自己慢慢磨,不一定夠快。
而且市場也不會等它。Android 陣營、OpenAI、Microsoft、Google,都在把 AI 直接塞進產品。Apple 如果太慢,Siri 會繼續被拿來當笑話。
接下來要看什麼
接下來我會盯兩件事。第一,Apple 會不會真的把蒸餾後的小模型放進 Siri。第二,這些功能會不會在日常操作裡真的有感。
如果 Siri 能更快理解指令、改寫文字、跨 App 找資料,那這筆合作就算值回票價。反過來,如果只是 demo 好看,實際還是常常答非所問,那問題就不在 Gemini。
我的判斷很簡單。Apple 會低調用 Google 的模型幫忙,然後把成果包成自家功能。它大概率不會把合作講得太大聲。
真正的問題只有一個:Apple 能不能把 teacher model 變成你我每天都會用到的 Siri 體驗?如果答案是可以,那 iPhone 的 AI 會開始像樣。要是還是不行,那就代表 Apple 這回只是又多買了一點時間。