[MODEL] 7 分鐘閱讀OraCore 編輯部

MiniMax-M1:開源 1M Token 推理模型

MiniMax 推出 M1 開源推理模型,主打 100 萬 Token 上下文、8 萬 Token 輸出與低價 API。

分享 LinkedIn
MiniMax-M1:開源 1M Token 推理模型

MiniMax-M1 是一款開源推理模型,主打 100 萬 Token 上下文、8 萬 Token 輸出,還把 API 價格壓得很低。

MiniMax 在 2025 年 6 月 16 日推出 MiniMax-M1。這次最吸睛的不是模型名字,而是數字。100 萬 Token 上下文、8 萬 Token 推理輸出,還有 512 張 H800 跑了 3 週的訓練設定。

更狠的是成本。MiniMax 說,整段強化學習只花了 534,700 美元。講白了,這是在告訴大家:大模型不一定非得燒到像失火一樣。它也可以很大,還可以算得精。

對開發者來說,這種模型值不值得玩,重點不在宣傳詞。重點在它能不能真的讀長文件、看大程式碼庫、跑長 agent 流程。MiniMax 把它放進 MiniMax App、網頁版和 API,也接上 vLLMSGLangHugging FaceGitHub,就是想讓人直接上手。

指標MiniMax-M1代表意義
上下文長度1,000,000 tokens可處理超長文件與程式碼庫
推理輸出80,000 tokens適合長鏈思考與多步驟任務
RL 訓練算力512 H800 × 3 週顯示訓練規模很大
RL 成本534,700 美元MiniMax 主打效率
SWE-bench validation55.6% 到 56.0%軟體工程能力有競爭力
API 價格每百萬 tokens $0.4 / $2.2輸入與輸出都偏低價

MiniMax 為什麼要做這種模型

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

我覺得這題很直白。現在大家都在比誰的模型更會講,MiniMax 直接改比誰能記更多。100 萬 Token 的上下文,不是拿來唬人而已。它能把長文件、長對話、長程式碼一起塞進去。

MiniMax-M1:開源 1M Token 推理模型

這對實務工作很有感。你在做 code review、法務文件摘要、客服知識庫查詢,或者 agent 反覆呼叫工具時,模型常常不是不會想。它是前面內容太長,後面就忘了。長上下文就是在補這個洞。

MiniMax 說 M1 用的是混合注意力設計,裡面有 Lightning Attention。意思很簡單。它想把長序列的計算壓下來,讓模型在吃大資料時,不要把伺服器搞得像在烤肉。

  • 100 萬 Token 上下文
  • 8 萬 Token 推理輸出
  • 512 張 H800 參與訓練
  • RL 成本 534,700 美元

這些 benchmark 到底怎麼看

先講結論。MiniMax-M1 不是只會秀參數。它把重點放在軟體工程、長上下文理解,還有工具使用。這三個方向都很實際,因為現在很多 AI 工作流,最後都會碰到程式、文件和工具鏈。

SWE-bench validation 上,MiniMax 公布 M1-40k 是 55.6%,M1-80k 是 56.0%。這個數字沒有把 DeepSeek 的 R1-0528 拉下來,後者是 57.6%。但它還是站在開源模型第一梯隊。

長上下文部分就更有看頭。MiniMax 說,M1 在開源模型裡表現很強,甚至把 OpenAI o3Claude 4 Opus 也拉進比較。它自家說法是,M1 在這項測試排到第二,只輸給 Gemini 2.5 Pro

“This feature gives us a substantial computational efficiency advantage in both training and inference.” — MiniMax

這句話很重要。因為大家都知道長上下文很香,但也很貴。模型如果只會吃記憶體,最後還是沒人敢用。MiniMax 想說的是,它不只大,還想讓訓練和推理都算得過去。

  • SWE-bench:55.6% 到 56.0%
  • DeepSeek-R1-0528:57.6%
  • 長上下文排名:第二,僅次於 Gemini 2.5 Pro
  • 工具使用測試:MiniMax 宣稱領先多數開源模型

價格才是這次的殺手鐧

很多模型一出來就愛講能力,價格卻藏到最後。MiniMax 這次反過來,把價格放得很前面。它的 API 在 0 到 20 萬 Token 區間,輸入每百萬 Token 只要 0.4 美元,輸出是 2.2 美元。

MiniMax-M1:開源 1M Token 推理模型

如果輸入超過 20 萬、到 100 萬 Token,輸入價格變成每百萬 Token 1.3 美元,輸出還是 2.2 美元。這個設計很有意思。它等於在說,長上下文可以用,但不是叫你亂塞資料。

這種定價對開發者很實際。你要跑長文件摘要、程式碼 refactor、知識庫問答,或者 agent 反覆讀寫資料,成本會直接影響你要不要上線。MiniMax 這次就是在搶這塊。

  • 0 到 20 萬輸入:每百萬 Token 0.4 美元
  • 0 到 20 萬輸出:每百萬 Token 2.2 美元
  • 20 萬到 100 萬輸入:每百萬 Token 1.3 美元
  • 20 萬到 100 萬輸出:每百萬 Token 2.2 美元

更麻煩的是,這還不是只有 API 的事。MiniMax 說 M1 已經能在 App、網頁和開發工具鏈裡用。對團隊來說,工具先接得上,才有機會真的進 production。只會發 paper 的模型,通常都活不久。

跟其他模型比,差在哪裡

如果只看 100 萬 Token,上下文這件事其實已經不是 MiniMax 獨有。Gemini 2.5 Pro 也有 100 萬 Token 級別的上下文。差別在於,MiniMax 把價格壓得更明顯,還把開源和部署支援一起端出來。

再看開源陣營。DeepSeek 的 R1 系列在推理圈很有名,Meta Llama 系列則有更大的生態。MiniMax 的打法比較像是:我不一定要在所有榜單都第一,但我要在長上下文、成本、工具使用這幾個點很能打。

這種策略其實很合理。現在企業採購 AI,不會只看單一 benchmark。你還得看部署難度、推理速度、價格、以及能不能接到既有的伺服器和軟體堆疊。M1 的優勢,就是它把這幾件事綁在一起賣。

  • Gemini 2.5 Pro:同樣主打超長上下文
  • DeepSeek R1:推理能力強,SWE-bench 更高
  • Meta Llama:開源生態成熟,但長上下文不是唯一賣點
  • MiniMax-M1:價格和長上下文一起打

這代表整個 AI 產業什麼事

我覺得這波很像一個轉向。前兩年大家在拼參數和聊天能力,現在開始拼「你到底能不能真的做事」。做事就會碰到長文件、長流程、長記憶,還有工具呼叫。這些都很吃上下文。

所以 100 萬 Token 不只是規格表上的數字。它其實在暗示一件事:模型會越來越像工作引擎,不只是聊天機器人。你丟進去的不是一句 prompt,而是一整包資料、規則、歷史紀錄和程式碼。

MiniMax 這次還把訓練成本講得很細。512 張 H800、3 週、53.47 萬美元。這些數字的用意很明顯。它想讓市場相信,超長上下文不是只能靠超大預算堆出來。

但我也不會把話說滿。模型規格漂亮,不等於每個工作都適合。真正的考驗,是你的資料格式、你的 prompt 工程、還有你的延遲需求。別忘了,Token 再大,回應慢到像在等公車,也沒人想用。

接下來可以怎麼看 M1

如果你是開發者,我會建議你先拿它測三件事。第一是長文件摘要。第二是大程式碼庫問答。第三是多步驟 agent 任務。這三個場景最容易看出模型有沒有真材實料。

如果你是產品或 AI 工程師,就該盯成本。API 價格低,代表你有機會把更長的上下文塞進產品,但前提是你要算得出 ROI。不是每個功能都值得開到 100 萬 Token。很多時候,20 萬就夠了。

MiniMax-M1 這次給市場的訊號很清楚。開源模型的競爭,已經不是單純比誰更會講。接下來更重要的是,誰能把長上下文、推理品質和成本一起做平衡。你如果正在選模型,這會是很值得實測的一個選項。