Apple 與 Gemini Siri 交易,改寫 iPhone AI
Apple 確認 Siri 將採用 Gemini 模型與 Google Cloud。這篇整理合作細節、隱私爭議、iPhone 使用體驗與對 ChatGPT 的影響。

Apple 確認 Siri 會用 Gemini 模型,Google Cloud 也會參與後端運算。
Apple 和 Google 把傳聞變成事實。時間點是 2026 年 4 月 22 日。Google Cloud CEO Thomas Kurian 直接說,Apple 是重要客戶。
更白話一點,Siri 不是只換外殼。它的腦袋,正在接上 Gemini。這件事對 iPhone AI 很重要,因為它牽涉模型、雲端、隱私,還有 Apple 一貫的控制慾。
Bloomberg 先前報導,Apple 每年大概付 10 億美元。對象是客製化的 1.2 兆參數 Gemini 版本。Apple 和 Google 也在 2026 年 1 月發過聯合聲明。
| 項目 | 已公開資訊 | 代表什麼 |
|---|---|---|
| 公布時間 | 2026 年 4 月 22 日 | 合作關係正式浮上檯面 |
| 年費用 | 約 10 億美元 | Apple 願意買很大的 AI 算力 |
| 模型規模 | 1.2 兆參數 | 顯示是客製化的大型 Gemini 版本 |
| 聯合聲明 | 2026 年 1 月 | 合作不是臨時起意 |
Apple 到底確認了什麼
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
先講結論。Apple 確認 Siri 會接上 Gemini 系列模型。Google Cloud 也會參與 Apple Foundation Models 的雲端層。

但別把「確認」想成技術白皮書。Thomas Kurian 沒有在台上丟出完整架構圖。也沒有講到每個請求怎麼走。
他講的是方向。方向很清楚。Apple 不再裝作自己能單獨搞定所有 AI 能力。它是在買時間,也是在買能力。
Apple 和 Google 早在 1 月就先講過一次。那份聯合聲明提到,下一代 Apple Foundation Models 會用 Google 的 Gemini 模型與雲端基礎設施。4 月的公開說法,比較像是把原本的私下合作攤開來。
- Apple 是這次 Siri 變動的主角。
- Google Cloud 進到後端供應鏈。
- Gemini 是 Apple 借來的模型家族。
- Apple Newsroom 是官方訊息來源。
Siri 可能怎麼跑
我覺得最合理的理解,是三層架構。小任務留在手機上。大任務送進 Apple 的雲端。某些第三方模型,則維持使用者選擇式開關。
像設定鬧鐘、開 App、切 Wi-Fi,這些都很適合留在本機。延遲低,也不用把資料送出去。這部分 Apple 本來就做得比較像樣。
真正麻煩的是複雜請求。像是整理信件、讀懂行事曆、比對照片、串起多個 App 的上下文。這種工作,手機本地算力通常不夠。
這時候,Gemini-backed 的 Apple Foundation Models 才有用武之地。它不是要取代 Siri 的外觀,而是把 Siri 變成能處理上下文的助手。
Apple 也早就留了第三條路。你如果叫 Siri 用 ChatGPT,系統會先問你。Gemini 之後很可能也會走類似流程。這樣 Siri 就像流量管制員,不像單一模型的門面。
“The next generation of Apple Foundation Models will be based on Google’s Gemini models and cloud infrastructure.” — Apple and Google joint statement, January 2026
這句話很直白。也很 Apple。它講了方向,沒講太多細節。Apple 很少把真正的技術路線一次講完,這次也一樣。
但對使用者來說,介面可能還是熟悉的 Siri。只是背後那顆腦袋,換成更能幹的版本。
隱私才是最大問題
Apple 的 Private Cloud Compute 很重要。Apple 說它用自家伺服器、加密請求、無狀態處理,還有可驗證的系統元件。

這套設計聽起來很漂亮。問題是,Gemini 到底怎麼塞進去?如果 Gemini 真的跑在 Apple 控制的 PCC 裡,那 Apple 還握得住資料路徑。
但如果部分工作跑到 Google 資料中心,那故事就變了。這時候就不是單純的技術整合,而是信任與合約問題。對一般人來說差別可能不大。對記者、律師、維權者,差別很大。
Apple 的 隱私頁面 和 PCC 文件,現在都還不足以完整回答這件事。你可以說 Apple 比很多 AI 服務更保守。但你不能直接說它等於純本機。
- Apple Privacy 是官方隱私說法。
- Private Cloud Compute 是技術基礎。
- Bloomberg 先報出 10 億美元與 1.2 兆參數。
- MacRumors 持續追蹤 Siri 進度。
講白了,Apple 這次最大的壓力,不是 AI 做不做得出來。是它能不能說清楚,資料到底去哪裡。
對 iPhone 使用者有什麼差
Apple 現在要解的,是自己拖太久的題目。Siri 落後太明顯,大家都看得出來。與其硬撐,不如直接接上 Gemini。
這會改變很多人的習慣。以前你遇到複雜問題,可能先開 ChatGPT。等 Siri 真的能做摘要、規劃、比對上下文,很多人就不會先跳出去。
這對 Apple 很划算。它保住介面,也保住使用者關係。對 Google 來說,則是模型和雲端收入。對 OpenAI 來說,Siri 內建入口還在,但不再是唯一外掛。
如果你是一般 iPhone 使用者,差異可以這樣看:
- 舊 Siri:簡單命令快,複雜任務弱。
- 新 Siri:小任務留本機,大任務走 Gemini。
- ChatGPT on Siri:還是選配,不是預設。
- 隱私敏感模式:大概仍是最保守的選項。
我覺得最有感的,不會是某次炫技 Demo。會是某天你突然發現,Siri 終於能把一串上下文接起來。
跟其他 AI 助手比,差在哪
Apple 不是第一個把模型接進系統介面的公司。Google 在 Android 和 Gemini 上早就這樣玩。Microsoft 也把 Copilot 塞進 Windows、Office、Edge。
但 Apple 的路線比較陰。它不愛把功能一次講滿。它通常先把入口卡住,再慢慢補後端。這次也是一樣。
如果拿來比,Apple 的優勢是硬體整合和系統控制。它有 iPhone、iPad、Mac、Apple silicon,還有整套帳號體系。弱點也很明顯,就是 AI 進度慢,還有資料處理要顧隱私。
以下是比較重點:
- Microsoft Copilot:強在辦公整合。
- Gemini:強在 Google 生態與雲端。
- ChatGPT:強在通用對話與工具生態。
- Siri:現在才開始補複雜任務能力。
所以這件事不是單純的模型採購。它比較像 Apple 在重畫自己的 AI 入口。這一步做下去,iPhone 的預設助手會更像真的助手。
這件事放在產業脈絡裡看
AI 產業現在很現實。模型很貴,算力更貴。自己從頭訓練,成本高到很誇張。對 Apple 這種公司來說,自己全包不是唯一解。
這也是為什麼雲端合作越來越常見。大公司表面上講生態,底下其實在談算力、延遲、成本和資料控制。誰握住入口,誰就有議價權。
Apple 選 Gemini,不代表它放棄自己的 AI。比較像它承認一件事:在大型 LLM 這條路上,外部合作比硬撐更實際。這很 Apple,也很不 Apple。因為它平常最愛自己來。
接下來要看的是,Apple 會不會把這套架構講清楚。只要它願意公開資料流向、處理邊界、以及哪些功能可離線,開發者才有辦法判斷這套系統值不值得信任。
接下來要看什麼
我會盯三件事。第一,Siri 到底哪些請求會離機。第二,Google Cloud 在整體架構裡扮演多大角色。第三,Apple 會不會把 Gemini 變成預設能力。
如果 Apple 真的把這套做穩,iPhone 的 AI 體驗會更像一個可用的工作助手。不是神話。就是實用。這對一般人就夠了。
但如果 Apple 只做到半套,Siri 還是會被拿來吐槽。因為大家要的不是新聞稿。大家要的是能用的功能。
我的預測很直接:未來 6 到 12 個月,Apple 會用更保守的方式釋出 Siri 升級。你會先看到能力變強,再看到架構慢慢被揭開。對開發者來說,現在最值得做的事,就是開始想:你的 App 要怎麼跟這種系統級 AI 介面接軌?