[IND] 6 分鐘閱讀OraCore 編輯部

Cursor、Kimi 與開源賭注

Cursor 把 Composer 2 建在 Moonshot AI 的 Kimi K2.5 上,價格約只有傳統方案的八分之一。這篇拆解它的成本邏輯、開源模型競爭、資安風險,還有台灣開發者該怎麼看。

分享 LinkedIn
Cursor、Kimi 與開源賭注

Cursor 把 Composer 2 推給超過 100 萬日活用戶後,大家才發現一件事。它背後的模型,來自 Moonshot AIKimi K2.5。這是中國的開源模型。更狠的是,成本大概只有常見方案的八分之一。

講白了,這不是嘴砲。做 coding assistant 的公司,活不活得下去,常常看每次推理的成本。模型夠強,價格又低,產品就能跑得快。還能留更多預算給迭代、觀測和客服。

這篇新聞好看的地方,不是 Cursor 愛不愛開源。重點是,它直接選了最划算的那個開源模型。這種選擇很務實,也很殘酷。市場不吃信仰,只吃算帳。

Cursor 這次押的,是成本,不是立場

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

Cursor 這次的選擇,很像工程團隊會做的事。先看 benchmark,再看延遲,再看價格。最後才看品牌。這順序很現實,也很像台灣團隊平常在挑雲端服務。

Cursor、Kimi 與開源賭注

它的編輯器底層是 Visual Studio Code。這本來就是開源專案。現在模型層也走同一條路。工具鏈越來越像一串可替換零件,而不是某家大廠的封閉套餐。

我覺得這件事很有意思。很多 AI 公司愛講願景,講到像在開法說會。Cursor 沒那麼多戲。它只是把最適合的模型塞進產品裡,然後讓用戶自己感受差異。

  • Cursor 的 Composer 2 已到 100 萬以上日活。
  • Kimi K2.5 是開源模型。
  • 價格大約是常見頂級方案的 1/8。
  • 編輯器底層用的是 VS Code

這裡的訊號很清楚。開源不是情懷。開源是供應鏈。當你能用更低成本拿到接近頂級的效果,商業模式就會變得比較好看。尤其是對還在燒錢的軟體新創來說。

中國開源模型的節奏,真的快得誇張

這次最刺眼的地方,是模型更新速度。Tomasz Tunguz 提到,美國開源前沿模型平均大概 8 個月。中國開源模型平均大概 7 週。這差距不是小事。對 LLM 來說,8 個月常常就是好幾輪訓練配方和後訓練方法的進化。

這也解釋了為什麼 Cursor 沒選 GPT-OSS。不是它不行,而是它太舊了。若一個模型晚了幾個月,成本、能力、推理效率都可能被後面的版本追上。

開發者其實很現實。你在做 prototype 時,不會先問政治立場。你會問 Token 多少錢、延遲多少、能不能穩定跑。這也是開源模型會快速擴散的原因。它讓試錯成本變低。

  • 美國開源前沿模型平均約 8 個月。
  • 中國開源模型平均約 7 週。
  • 時間差約 5 倍。
  • GPT-OSS 被拿來對比時,已經偏舊。

這裡還有一個現實問題。Meta 曾經靠 Llama 拿下不少開源聲量,但 2025 年後策略明顯轉向。當美國這邊的開源節奏放慢,空位就會被別人補上。市場不會等人。

“This is the open model ecosystem we love to support.” — Moonshot AI

台灣開發者要看的,是供應鏈,不是八卦

如果你在台灣做 SaaS、IDE 外掛,或企業內部 AI 工具,這件事很值得盯。因為模型選擇,最後會反映在毛利率上。不是每家公司都能一直燒 API 成本。尤其是有大量 autocomplete、agent、檔案讀寫的產品。

Cursor、Kimi 與開源賭注

Cursor 的案例說明一件事。模型不一定要自研。你只要找到夠新、夠強、夠便宜的開源模型,就能把產品做出來。這跟過去挑資料庫、挑 queue、挑 cache 的邏輯很像。

但也別太天真。便宜不等於可直接上線。你還要看授權、部署、觀測、資料外洩風險。尤其是 coding assistant,會碰到 repo、secret、內部文件。這些東西一旦流出去,成本不是 Token,而是事故。

  • 開發工具最怕的是長期推理成本失控。
  • 開源模型能讓試作成本先降下來。
  • 企業上線前,還要補授權與資安檢查。
  • coding assistant 會直接接觸程式碼與檔案。

我會建議台灣團隊把模型當成可替換元件。不要綁死單一供應商。今天可能是 Kimi,明天可能是 QwenGemma。產品層穩住,底層才有談判空間。

中國模型很紅,但信任問題還在

數字很猛,但信任不是。Tunguz 引用 OpenRouter 的資料說,中國開源模型在全球 AI 使用占比,從 2024 年底的 1.2%,拉到 2025 年底接近 30%。這種成長速度,任何產品經理看了都會皺眉。

另一個數字也很誇張。Hugging Face 上的 Qwen 下載量,據說在 2025 年 10 月超過 Llama,到 7 億次。這代表開發者願意先用再說。尤其是原型、研究和個人專案。

但企業環境就沒那麼隨便。NIST 的 CAISI 評估提到,中國模型對 agent hijacking 的脆弱度高出 12 倍。這很致命。因為 coding assistant 不是聊天機器人而已。它會讀檔、寫檔、呼叫工具。

  • 中國開源模型使用占比,從 1.2% 升到近 30%。
  • QwenHugging Face 的下載量達 7 億。
  • NIST 指出,某些評估中風險高出 12 倍。
  • MicrosoftNews Corp 在部分環境直接禁用。

所以這題不是單純的「誰比較強」。而是「誰能進企業」。如果資安和治理補不齊,再便宜也沒用。到最後,省下來的 API 費,可能全花在審查流程和風險控管。

美國也在追,只是節奏沒那麼整齊

美國這邊不是沒動。只是動得比較分散。NVIDIA 宣布 5 年投入 260 億美元到開源 AI。Gemma 持續更新。GPT-OSS 也加入戰局。OLMo 3 則走研究派路線。

其中一個有意思的點,是 OLMo 3 在某些數學 benchmark 上,能用比 Qwen 3 少 6 倍的訓練資料追上表現。這說明一件事。不是只有砸資料才有結果。訓練方法、資料品質、後訓練流程,都很重要。

但老實說,美國開源陣營還在補課。產品節奏、模型新鮮度、成本控制,這三件事要同時做好,不容易。尤其是當閉源大模型還在持續拉高門檻時,開源陣營更需要穩定輸出。

  • NVIDIA:5 年 260 億美元。
  • Gemma:Google 的開源模型家族。
  • GPT-OSS:OpenAI 的開源權重方案。
  • OLMo 3:用更少資料追 benchmark。

這場比的是整條供應鏈。不是單一模型。從資料、訓練、推理,到部署和治理,哪一段慢了,整個產品就會吃虧。Cursor 的做法只是把這件事攤開給大家看。

開源模型會變成預設選項嗎

我覺得答案是會,而且速度不慢。原因很簡單。當模型品質差距縮小,價格就會變成主要戰場。對新創來說,省 8 倍成本不是小事。那是能不能活下來的差別。

Cursor 這次沒有寫宣言。它只是做了一個產品決策。可這個決策很誠實。它告訴所有做 AI 工具的人:你不用迷信最貴的模型。你要找的是最適合的模型。

接下來,我會盯兩個指標。第一個是開源模型的更新頻率。第二個是企業端的安全評分。如果美國開源模型不能把新鮮度和成本拉回來,更多團隊會直接採用現成的開源方案,不管它來自哪裡。

如果你是開發者,現在就該做一件事:把你的模型抽象層拉出來。別讓產品和單一 API 綁死。這樣你才有機會在價格、品質、合規三邊切換。說真的,這比追熱點實際多了。