[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-glm-5-zai-flagship-coding-agents-zh":3,"tags-glm-5-zai-flagship-coding-agents-zh":35,"related-lang-glm-5-zai-flagship-coding-agents-zh":52,"related-posts-glm-5-zai-flagship-coding-agents-zh":56,"series-model-release-57576af6-0bf2-4616-ac89-8435e39a8aa7":93},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":23,"translated_content":10,"views":24,"is_premium":25,"created_at":26,"updated_at":26,"cover_image":11,"published_at":27,"rewrite_status":28,"rewrite_error":10,"rewritten_from_id":29,"slug":30,"category":31,"related_article_id":32,"status":33,"google_indexed_at":34,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":25},"57576af6-0bf2-4616-ac89-8435e39a8aa7","GLM-5 登場：Z.AI 的寫程式旗艦","\u003Cp>\u003Ca href=\"https:\u002F\u002Fdocs.z.ai\u002Fguides\u002Fllm\u002Fglm-5\" target=\"_blank\" rel=\"noopener\">GLM-5\u003C\u002Fa> 是 Z.AI 的新旗艦模型。數字很硬，744B 總參數、40B active、28.5T pre-training tokens、200K context。講白了，這就是衝著寫程式和 agent 工作來的。\u003C\u002Fp>\u003Cp>更狠的是 benchmark。Z.AI 公布 GLM-5 在 SWE-bench Verified 拿到 77.8，在 Terminal Bench 2.0 拿到 56.2。這不是普通聊天模型的分數，這是直接往 coding 模型主戰場丟球。\u003C\u002Fp>\u003Cp>我覺得這次最有意思的地方，不是規格有多大，而是它很明確地瞄準 production workflow。它支援 thinking mode、function calling、struct\u003Ca href=\"\u002Fnews\u002Fturboquant-wont-fix-memory-crunch-zh\">ur\u003C\u002Fa>ed output、streaming 和 context caching。說真的，這東西不是拿來拍 demo 的。\u003C\u002Fp>\u003Ch2>GLM-5 到底想解什麼題\u003C\u002Fh2>\u003Cp>Z.AI 把 GLM-5 定位成 agentic engineering 模型。這個詞有點行銷味，但意思不難懂。模型要能規劃、呼叫工具、跨多步任務維持上下文，還要自己修正路線。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775135063109-o1yh.png\" alt=\"GLM-5 登場：Z.AI 的寫程式旗艦\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這種模型適合的工作很實際。像前端頁面生成、後端系統工程、資料處理、翻譯、抽取、還有多步驟的辦公任務。你可以把它想成一個會一直記得目標的軟體工程助手。\u003C\u002Fp>\u003Cp>官方文件還直接拿 \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fclaude\u002Fopus\" target=\"_blank\" rel=\"noopener\">Claude Opus 4.5\u003C\u002Fa> 來比，說 GLM-5 的實際程式能力接近它。這種比較很大膽，因為開發者最後看的不是宣傳詞，而是它能不能少出 bug。\u003C\u002Fp>\u003Cul>\u003Cli>744B 總參數，40B active\u003C\u002Fli>\u003Cli>28.5T 預訓練 tokens\u003C\u002Fli>\u003Cli>200K context，128K 最大輸出\u003C\u002Fli>\u003Cli>只支援文字輸入與輸出\u003C\u002Fli>\u003Cli>支援 thinking mode、function calling、structured output\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這組配置很像 Z.AI 在說一件事：它不想先做多模態聊天機器人。它想先做能扛長任務的 coding 引擎。這方向很務實，也很符合現在 agent 開發的需求。\u003C\u002Fp>\u003Ch2>為什麼參數變大，大家還是會在意\u003C\u002Fh2>\u003Cp>GLM-5 相比 GLM-4.7，總參數從 355B 拉到 744B。active parameters 也從 32B 漲到 40B。更重要的是，訓練資料從 23T tokens 增加到 28.5T。這些數字不會自動等於更強，但通常代表模型看過更多 code pattern 和指令風格。\u003C\u002Fp>\u003Cp>對寫程式來說，這種差異很現實。模型如果看過更多 repo 結構、測試案例、錯誤訊息和修 bug 流程，遇到真實問題時就比較不容易亂答。尤其是 multi-step 任務，資料量和訓練方式都會影響穩定度。\u003C\u002Fp>\u003Cp>Z.AI 另外提到一個叫 Slime 的 asynchronous reinforcement learning framework。白話一點，就是後訓練不再把每個 prompt 當單次事件，而是能在更長的 agent 互動裡持續學。這對工具調用很重要，因為模型要記住目標，也要知道自己前一步做錯了什麼。\u003C\u002Fp>\u003Cp>它還用了 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\" target=\"_blank\" rel=\"noopener\">DeepSeek Sparse Attention\u003C\u002Fa>。這點我覺得很實際。長 context 很吃算力，稀疏注意力可以壓部署成本。對要付 inference 費用的團隊來說，這種工程選擇比口號更有感。\u003C\u002Fp>\u003Cul>\u003Cli>GLM-4.7：355B total、32B active、23T tokens\u003C\u002Fli>\u003Cli>GLM-5：744B total、40B active、28.5T tokens\u003C\u002Fli>\u003Cli>GLM-5 最大輸出 128K tokens\u003C\u002Fli>\u003Cli>200K context 對長文件和大專案很有幫助\u003C\u002Fli>\u003C\u002Ful>\u003Cp>講白了，GLM-5 想解的是「長任務」這題。不是只會回一句漂亮答案，而是能一路跟著你把事情做完。\u003C\u002Fp>\u003Ch2>benchmark 數字代表什麼\u003C\u002Fh2>\u003Cp>Z.AI 最想讓人記住的，是 SWE-bench Verified 77.8 和 Terminal Bench 2.0 56.2。這兩個 benchmark 很有代表性，因為它們都不是單純考作文。它們考的是模型能不能真的動手修問題。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775135065269-405l.png\" alt=\"GLM-5 登場：Z.AI 的寫程式旗艦\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>SWE-bench Verified 主要看模型能不能修 GitHub 上的真實 issue。Terminal Bench 2.0 則偏向命令列操作和工具鏈推理。前者像寫 code，後者像在終端機裡活下來。兩個都高，通常代表模型不只會講。\u003C\u002Fp>\u003Cblockquote>\"The most important thing for any AI system is whether it can do useful work for people.\" — Sam Altman, OpenAI DevDay 2023\u003C\u002Fblockquote>\u003Cp>這句話出自 \u003Ca href=\"https:\u002F\u002Fopenai.com\u002Fdevday\" target=\"_blank\" rel=\"noopener\">OpenAI DevDay 2023\u003C\u002Fa>。放在這裡很合適。因為 coding model 的價值，不在於它能不能一次寫出華麗程式碼，而在於它能不能持續幫你把工作做完。\u003C\u002Fp>\u003Cp>Z.AI 也說 GLM-5 在 frontend development、backend systems engineering 和 long-horizon execution 上，都比 GLM-4.7 好。這種說法如果之後能被第三方驗證，對開發者會很有參考價值。因為這些場景最接近真實工作。\u003C\u002Fp>\u003Cp>把公開數字攤開來看，可以先得到幾個判斷：\u003C\u002Fp>\u003Cul>\u003Cli>GLM-5 不是走便宜聊天模型路線\u003C\u002Fli>\u003Cli>它把 agent 能力看得跟寫碼能力一樣重要\u003C\u002Fli>\u003Cli>長 context 和工具使用是核心賣點\u003C\u002Fli>\u003Cli>它在瞄準 premium coding assistant 市場\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我會說，這些分數的重點不是「贏了誰」。重點是 Z.AI 已經把自己放進頂級 coding 模型的討論桌上了。\u003C\u002Fp>\u003Ch2>開發者怎麼接上去用\u003C\u002Fh2>\u003Cp>目前 GLM-5 的使用入口綁在 \u003Ca href=\"https:\u002F\u002Fdocs.z.ai\u002Fguides\u002Fllm\u002Fglm-5\" target=\"_blank\" rel=\"noopener\">GLM Coding Plan\u003C\u002Fa>。Z.AI 提供 Pro 和 Max 方案，走月費制。這種設計很像在跟開發者說：你不用先簽大合約，也能先試用。\u003C\u002Fp>\u003Cp>它也支援常見的開發工具。像 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code\" target=\"_blank\" rel=\"noopener\">Claude Code\u003C\u002Fa> 和 Open Code 都能接。這點很重要，因為很多團隊不是缺模型，而是缺整合時間。能少改一層工具，就少一層麻煩。\u003C\u002Fp>\u003Cp>API 方面，Z.AI 的入口是 \u003Ca href=\"https:\u002F\u002Fapi.z.ai\" target=\"_blank\" rel=\"noopener\">api.z.ai\u003C\u002Fa>。文件裡有 cURL、Python SDK、Java SDK，還有 OpenAI-style Python SDK。對已經用 chat-com\u003Ca href=\"\u002Fnews\u002Fapple-siri-overhaul-ios-27-gemini-chatbot-zh\">ple\u003C\u002Fa>tions 介面的團隊來說，遷移成本會低很多。\u003C\u002Fp>\u003Cp>如果你在比方案，可以先看這幾個面向：\u003C\u002Fp>\u003Cul>\u003Cli>200K context 適合長文件、長 repo、長對話\u003C\u002Fli>\u003Cli>128K 輸出上限適合大段 code 生成\u003C\u002Fli>\u003Cli>function calling 和 structured output 適合 agent 流程\u003C\u002Fli>\u003Cli>sparse attention 可能有助於控制推理成本\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我覺得這裡最實用的一點，是 Z.AI 沒有強迫你換一套新工作流。它想吃進既有 agent 生態，這比重新教育開發者容易多了。\u003C\u002Fp>\u003Ch2>跟其他 coding 模型怎麼比\u003C\u002Fh2>\u003Cp>如果把 GLM-5 放到整個 coding model 市場看，它的策略很清楚。它不是只追求聊天品質，而是把長 context、工具使用、程式修復、終端機推理一起包進來。這讓它更像一個工程助手，而不是單純的對話模型。\u003C\u002Fp>\u003Cp>和一些主流模型相比，GLM-5 的公開賣點很集中。像 \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fclaude\" target=\"_blank\" rel=\"noopener\">Claude\u003C\u002Fa> 系列常被拿來看程式品質，\u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fgpt-4o\u002F\" target=\"_blank\" rel=\"noopener\">GPT-4o\u003C\u002Fa> 強在通用性和多模態，而 GLM-5 的重點是把 coding 和 agent 任務拉到最前面。這種切法很直接，也很容易讓人懂。\u003C\u002Fp>\u003Cp>從公開資訊來看，GLM-5 有幾個比較點很值得注意。它的 200K context 很大，對長 repo 和長文件有利。它的 128K output 上限也很少見，對一次產出大量程式碼或規格整理很方便。再加上 40B active parameters，理論上比純粹堆總參數更能控制推理成本。\u003C\u002Fp>\u003Cul>\u003Cli>對比 Claude：GLM-5 更強調開放接入與長 context\u003C\u002Fli>\u003Cli>對比 GPT-4o：GLM-5 更偏 coding 與 agent 工作\u003C\u002Fli>\u003Cli>對比一般開源模型：GLM-5 的 benchmark 和規模更高\u003C\u002Fli>\u003Cli>對比低成本模型：GLM-5 明顯不是走便宜路線\u003C\u002Fli>\u003C\u002Ful>\u003Cp>話說回來，benchmark 再漂亮，也還是要看真實 repo。CI 會不會壞，測試會不會漏，程式碼風格會不會亂，這些才是工程團隊每天在意的事。\u003C\u002Fp>\u003Ch2>這波更新放在產業脈絡裡怎麼看\u003C\u002Fh2>\u003Cp>現在的 AI coding 市場很擠。大家都在比誰能更穩地修 bug、更會調 t\u003Ca href=\"\u002Fnews\u002Fgoogles-turboquant-cut-llm-memory-sixfold-zh\">oo\u003C\u002Fa>l、更能在長任務裡不失控。從 GitHub Copilot 到 Claude Code，再到各種 agent 框架，方向都很一致：模型要開始真的幹活。\u003C\u002Fp>\u003Cp>GLM-5 的出現，代表中國系模型也在往這個方向硬碰硬。它不是只做通用聊天，而是把資源集中在 coding 與 agent。這種選擇很務實，因為開發者願意為能省時間的工具付費，尤其是能處理複雜專案的工具。\u003C\u002Fp>\u003Cp>長 context 也不只是規格數字。對資料工程、文件處理、法遵摘要、內部知識庫問答來說，200K context 真的有用。你可以把更多背景一次塞進去，少一點切片、少一點上下文遺失。\u003C\u002Fp>\u003Cp>另外一個現實是成本。模型越大，不代表每次都要暴力全開。GLM-5 的 40B active parameters 和 sparse attention，顯然是在找一條比較能落地的路。這對要上 production 的團隊，比單純的排行榜名次更重要。\u003C\u002Fp>\u003Ch2>接下來我會怎麼看\u003C\u002Fh2>\u003Cp>我對 GLM-5 的看法很直接。它不是那種只適合發新聞稿的模型。它的規格、API、工具支援和 benchmark，全部都在對準開發者日常工作。\u003C\u002Fp>\u003Cp>接下來最值得看的是第三方實測。尤其是實際 GitHub repo、真實 CI、錯誤修復率，還有 agent 在長任務裡會不會自己走偏。這些結果如果站得住，GLM-5 就不只是名單上的新模型，而會變成團隊真的會拿來試的選項。\u003C\u002Fp>\u003Cp>如果你現在就在評估 coding model，我會建議先拿一個真實專案測。不要只看 demo。把它丟進你自己的 repo，看它能不能修 3 個 issue、跑過測試、還能把改動講清楚。這才是答案。\u003C\u002Fp>","GLM-5 是 Z.AI 的新旗艦模型。744B 總參數、200K context、SWE-bench Verified 77.8、Terminal Bench 2.0 56.2，直接挑戰頂級 coding 模型。","docs.z.ai","https:\u002F\u002Fdocs.z.ai\u002Fguides\u002Fllm\u002Fglm-5",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775135063109-o1yh.png",[13,14,15,16,17,18,19,20,21,22],"GLM-5","Z.AI","coding model","agent","SWE-bench Verified","Terminal Bench 2.0","LLM","人工智慧","API","Claude Code","zh",1,false,"2026-04-02T13:03:42.135022+00:00","2026-04-02T13:03:41.951+00:00","done","383c3a27-2790-45a8-b285-d71b3b6586ec","glm-5-zai-flagship-coding-agents-zh","model-release","91fe9555-c2db-4489-babe-df23943ec39b","published","2026-04-08T09:00:52.054+00:00",[36,38,39,41,43,45,47,50],{"name":37,"slug":16},"Agent",{"name":20,"slug":20},{"name":14,"slug":40},"zai",{"name":22,"slug":42},"claude-code",{"name":19,"slug":44},"llm",{"name":18,"slug":46},"terminal-bench-20",{"name":48,"slug":49},"SWE-Bench Verified","swe-bench-verified",{"name":13,"slug":51},"glm-5",{"id":32,"slug":53,"title":54,"language":55},"glm-5-zai-flagship-coding-agents-en","GLM-5: Z.AI's new flagship for coding and agents","en",[57,63,69,75,81,87],{"id":58,"slug":59,"title":60,"cover_image":61,"image_url":61,"created_at":62,"category":31},"5b5fa24f-5259-4e9e-8270-b08b6805f281","minimax-m1-open-hybrid-attention-reasoning-model-zh","MiniMax-M1：開源 1M Token 推理模型","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778797859209-ea1g.png","2026-05-14T22:30:38.636592+00:00",{"id":64,"slug":65,"title":66,"cover_image":67,"image_url":67,"created_at":68,"category":31},"b1da56ac-8019-4c6b-a8dc-22e6e22b1cb5","gemini-omni-video-review-text-rendering-zh","Gemini Omni 影片模型怎麼了","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778779280109-lrrk.png","2026-05-14T17:20:42.608312+00:00",{"id":70,"slug":71,"title":72,"cover_image":73,"image_url":73,"created_at":74,"category":31},"d63e9d93-e613-4bbf-8135-9599fde11d08","why-xiaomi-mimo-v25-pro-changes-coding-agents-zh","為什麼 Xiaomi 的 MiMo-V2.5-Pro 改變的是 Coding …","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778689858139-v38e.png","2026-05-13T16:30:27.893951+00:00",{"id":76,"slug":77,"title":78,"cover_image":79,"image_url":79,"created_at":80,"category":31},"8f0c9185-52f9-46f2-82c6-5baec126ba2e","openai-realtime-audio-models-live-voice-zh","OpenAI 即時音訊模型瞄準語音互動","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778451657895-2iu7.png","2026-05-10T22:20:32.443798+00:00",{"id":82,"slug":83,"title":84,"cover_image":85,"image_url":85,"created_at":86,"category":31},"52106dc2-4eba-4ca0-8318-fa646064de97","anthropic-10-finance-ai-agents-zh","Anthropic推10款金融AI Agent","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778389843399-vclb.png","2026-05-10T05:10:22.778762+00:00",{"id":88,"slug":89,"title":90,"cover_image":91,"image_url":91,"created_at":92,"category":31},"6ee6ed2a-35c6-4be3-ba2c-43847e592179","why-claudes-infinite-context-window-wont-autonomous-zh","為什麼 Claude 的「無限」上下文窗口，仍然不會讓 AI 自主運作","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778350250836-d5d5.png","2026-05-09T18:10:27.004984+00:00",[94,99,104,109,114,119,124,129,134,139],{"id":95,"slug":96,"title":97,"created_at":98},"58b64033-7eb6-49b9-9aab-01cf8ae1b2f2","nvidia-rubin-six-chips-one-ai-supercomputer-zh","NVIDIA Rubin 把六顆晶片塞進 AI 機櫃","2026-03-26T07:18:45.861277+00:00",{"id":100,"slug":101,"title":102,"created_at":103},"0dcc2c61-c2a6-480d-adb8-dd225fc68914","march-2026-ai-model-news-what-mattered-zh","2026 年 3 月 AI 模型新聞重點","2026-03-26T07:32:08.386348+00:00",{"id":105,"slug":106,"title":107,"created_at":108},"214ab08b-5ce5-4b5c-8b72-47619d8675dd","why-small-models-are-winning-on-device-ai-zh","小模型為何吃下裝置端 AI","2026-03-26T07:36:30.488966+00:00",{"id":110,"slug":111,"title":112,"created_at":113},"785624b2-0355-4b82-adc3-de5e45eecd88","midjourney-v8-faster-images-higher-costs-zh","Midjourney V8 變快了，也變貴了","2026-03-26T07:52:03.562971+00:00",{"id":115,"slug":116,"title":117,"created_at":118},"cda76b92-d209-4134-86c1-a60f5bc7b128","xiaomi-mimo-trio-agents-robots-voice-zh","小米 MiMo 三模型瞄準代理、機器人與語音","2026-03-28T03:05:08.779489+00:00",{"id":120,"slug":121,"title":122,"created_at":123},"9e1044b4-946d-47fe-9e2a-c2ee032e1164","xiaomi-mimo-v2-pro-1t-moe-agents-zh","小米 MiMo-V2-Pro 登場：1T MoE 模型","2026-03-28T03:06:19.002353+00:00",{"id":125,"slug":126,"title":127,"created_at":128},"d68e59a2-55eb-4a8f-95d6-edc8fcbff581","cursor-composer-2-started-from-kimi-zh","Cursor Composer 2 其實從 Kimi 起步","2026-03-28T03:11:58.893796+00:00",{"id":130,"slug":131,"title":132,"created_at":133},"c4b6186f-bd84-4598-997e-c6e31d543c0d","cursor-composer-2-agentic-coding-model-zh","Cursor Composer 2 走向代理式寫碼","2026-03-28T03:13:06.422716+00:00",{"id":135,"slug":136,"title":137,"created_at":138},"45812c46-99fc-4b1f-aae1-56f64f5c9024","openai-shuts-down-sora-video-app-api-zh","OpenAI 關閉 Sora App 與 API","2026-03-29T04:47:48.974108+00:00",{"id":140,"slug":141,"title":142,"created_at":143},"e112e76f-ec3b-408f-810e-e93ae21a888a","apple-siri-gemini-distilled-models-zh","Apple Siri 牽手 Gemini 的真相","2026-03-29T04:52:57.886544+00:00"]