[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-z-ai-glm-5v-turbo-design2code-claude-zh":3,"tags-z-ai-glm-5v-turbo-design2code-claude-zh":35,"related-lang-z-ai-glm-5v-turbo-design2code-claude-zh":51,"related-posts-z-ai-glm-5v-turbo-design2code-claude-zh":55,"series-model-release-3b988fd7-6749-4f01-ba25-c0ad7486dc31":92},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":23,"translated_content":10,"views":24,"is_premium":25,"created_at":26,"updated_at":26,"cover_image":11,"published_at":27,"rewrite_status":28,"rewrite_error":10,"rewritten_from_id":29,"slug":30,"category":31,"related_article_id":32,"status":33,"google_indexed_at":34,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":25},"3b988fd7-6749-4f01-ba25-c0ad7486dc31","GLM-5V-Turbo 在 Design2Code 贏了…","\u003Cp>\u003Ca href=\"https:\u002F\u002Fwww.z.ai\" target=\"_blank\" rel=\"noopener\">Z.ai\u003C\u002Fa> 這次丟出一個很直接的數字：94.8。這是 \u003Ca href=\"https:\u002F\u002Fwww.design2code.org\u002F\" target=\"_blank\" rel=\"noopener\">Design2Code\u003C\u002Fa> 上，\u003Ca href=\"https:\u002F\u002Fwww.z.ai\u002Fmodel\u002Fglm-5v-turbo\" target=\"_blank\" rel=\"noopener\">GLM-5V-Turbo\u003C\u002Fa> 拿到的分數。對比 \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fclaude\" target=\"_blank\" rel=\"noopener\">Claude Opus 4.6\u003C\u002Fa> 的 77.3，差距很明顯。說白了，這不是聊天能力比賽，這是看誰比較會把畫面變成程式。\u003C\u002Fp>\u003Cp>更有意思的是，它不是靠 NVIDIA 堆出來的。Z.ai 說，這個模型是用 \u003Ca href=\"https:\u002F\u002Fwww.huawei.com\u002Fen\u002Fproducts\u002Fcloud-computing-dc\u002Fascend\" target=\"_blank\" rel=\"noopener\">Huawei Ascend\u003C\u002Fa> 晶片訓練，搭配 \u003Ca href=\"https:\u002F\u002Fwww.mindspore.cn\u002Fen\" target=\"_blank\" rel=\"noopener\">MindSpore\u003C\u002Fa>，整條訓練鏈都沒碰 NVIDIA。這件事對硬體供應鏈、成本結構、還有中國 AI 生態，都很有意思。\u003C\u002Fp>\u003Cp>如果你在做 UI a\u003Ca href=\"\u002Fnews\u002Ftop-open-source-agentic-ai-frameworks-2026-zh\">gent\u003C\u002Fa>、screenshot-to-code、或設計稿自動轉前端，這個模型就不是新聞稿而已。它是在直接碰你的工作流程。這種東西，開發者通常會先懷疑，再偷偷拿去測。\u003C\u002Fp>\u003Ch2>這顆模型到底在做什麼\u003C\u002Fh2>\u003Cp>GLM-5V-Turbo 不是那種「先做聊天，再補上圖片」的模型。它從一開始就瞄準視覺理解、介面操作、和程式生成。你丟給它截圖、設計稿、文件版面、圖片，甚至影片畫面，它會試著把這些視覺資訊轉成程式碼，或直接變成操作動作。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775110615704-1xfb.png\" alt=\"GLM-5V-Turbo 在 Design2Code 贏了…\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>它屬於 \u003Ca href=\"https:\u002F\u002Fwww.z.ai\u002Fblog\" target=\"_blank\" rel=\"noopener\">GLM-5\u003C\u002Fa> 家族。官方說法是 7450 億參數、256 個 experts、每次推理大約啟用 440 億參數。這種 Mixture of Experts 架構，重點不是把全部參數都燒起來，而是讓模型在不同任務上切不同子網路。講白了，就是更會分工。\u003C\u002Fp>\u003Cp>視覺部分則加上 \u003Ca href=\"https:\u002F\u002Fwww.z.ai\u002Fblog\" target=\"_blank\" rel=\"noopener\">CogViT\u003C\u002Fa>。這是新的 vision encoder。它的價值在於，模型不是把圖片當成附加檔案，而是直接吃進視覺訊號。這差很多。前者常常像貼圖，後者才像真的看懂。\u003C\u002Fp>\u003Cul>\u003Cli>Design2Code 分數：94.8\u003C\u002Fli>\u003Cli>Claude Opus 4.6：77.3\u003C\u002Fli>\u003Cli>模型家族：GLM-5\u003C\u002Fli>\u003Cli>總參數：約 7450 億\u003C\u002Fli>\u003Cli>Experts：256\u003C\u002Fli>\u003Cli>每次推理啟用：約 440 億參數\u003C\u002Fli>\u003Cli>Context window：20 萬 tokens\u003C\u002Fli>\u003Cli>輸出上限：12.8 萬 tokens\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>為什麼這個分數很重要\u003C\u002Fh2>\u003Cp>Design2Code 這種測試，比一般聊天排行榜更有意義。它不是問模型會不會講道理，而是問它能不能把設計圖真的做出來。你給它一張 Figma mockup，或一張產品截圖，它要能吐出可用的 HTML、CSS、甚至元件結構。這很貼近真實開發。\u003C\u002Fp>\u003Cp>對很多團隊來說，這才是 AI 最值錢的地方。不是幫你寫一段漂亮文案，而是把設計、前端、和自動化串起來。94.8 代表什麼？代表它在這條路上，至少在這個 benchmark 上，比 Claude Opus 4.6 更像一個會做事的工具。\u003C\u002Fp>\u003Cp>Z.ai 也說，GLM-5V-Turbo 在 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweb-arena-x\u002FAndroidWorld\" target=\"_blank\" rel=\"noopener\">AndroidWorld\u003C\u002Fa> 和 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fweb-arena-x\u002FWebVoyager\" target=\"_blank\" rel=\"noopener\">WebVoyager\u003C\u002Fa> 這類 GUI agent 環境也有不錯表現。這類測試很煩，但很真實。模型不是只要會答題，而是要會在軟體介面裡走路、點按鈕、找欄位、處理錯誤。\u003C\u002Fp>\u003Cblockquote>“The future of AI will be about systems that can act, not just answer.” — Satya Nadella\u003C\u002Fblockquote>\u003Cp>這句話是 \u003Ca href=\"https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fceo\" target=\"_blank\" rel=\"noopener\">Satya Nadella\u003C\u002Fa> 說的。放在這裡很貼切。現在很多產品都在往 agent 走。不是只有回你一段文字，而是直接幫你跑流程。GLM-5V-Turbo 就是朝這個方向下手。\u003C\u002Fp>\u003Cp>但先別急著說它把 Claude 打趴了。Z.ai 自己的說法也暗示，Claude 在純文字 coding、後端推理、repo 探索，可能還是更穩。這比較像分工，不是通殺。視覺轉程式這條線，它很強。純文字重度推理，未必。\u003C\u002Fp>\u003Ch2>價格跟硬體，才是另一個重點\u003C\u002Fh2>\u003Cp>Z.ai 的定價很殺。API 標價是每百萬 input tokens 1.\u003Ca href=\"\u002Fnews\u002Fhow-web3-marketing-changed-in-2026-zh\">20\u003C\u002Fa> 美元，output tokens 4.00 美元，cached reads 0.24 美元。這不是小差距。對要跑 agent loop 的團隊來說，這種差距會直接反映在月帳單上。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775110632671-g16x.png\" alt=\"GLM-5V-Turbo 在 Design2Code 贏了…\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>為什麼？因為 GUI agent 很燒 token。它要看畫面、想下一步、叫工具、再修正輸出。一次任務常常不是一個 prompt 就結束，而是十幾輪來回。這時候，便宜 60% 到 80% 的模型，就會變成很實際的選項。\u003C\u002Fp>\u003Cp>OpenRouter 的早期數據也有參考價值。據平台統計，這個模型上線前兩天大約有 5.9 萬次請求，63.6 百萬 reasoning tokens，還有 18,900 次 tool function calls。這不像只是大家試玩一下。比較像開發者真的在拿它做事。\u003C\u002Fp>\u003Cul>\u003Cli>Input 價格：每百萬 tokens 1.20 美元\u003C\u002Fli>\u003Cli>Output 價格：每百萬 tokens 4.00 美元\u003C\u002Fli>\u003Cli>Cached reads：每百萬 tokens 0.24 美元\u003C\u002Fli>\u003Cli>OpenRouter 兩天請求量：約 59,000\u003C\u002Fli>\u003Cli>Reasoning tokens：6,360 萬\u003C\u002Fli>\u003Cli>Tool function calls：18,900\u003C\u002Fli>\u003C\u002Ful>\u003Cp>硬體這件事也不能跳過。用 Ascend 訓練，代表 Z.ai 可以少碰一些 NVIDIA 供應風險。對中國公司來說，這不是口號，是實際的採購和部署問題。能不能訓練、能不能擴容、能不能穩定跑，全部都跟硬體綁在一起。\u003C\u002Fp>\u003Cp>如果它真的能在 Ascend 上把模型品質維持住，那就很有看頭。因為這代表 AI 訓練不再只剩一條路。對生態系來說，這種選擇會影響成本，也會影響供應鏈談判力。\u003C\u002Fp>\u003Ch2>跟 Claude、其他模型比，差在哪\u003C\u002Fh2>\u003Cp>先講白一點，這不是「所有任務都贏」的故事。GLM-5V-Turbo 的強項很明確，就是視覺輸入轉程式、GUI 操作、和設計稿重建。Claude 的優勢則比較像文字推理、長文理解、程式碼審查、還有比較成熟的通用對話能力。\u003C\u002Fp>\u003Cp>如果你把兩者放進同一個工作流，結果可能是分工。GLM-5V-Turbo 負責看畫面、拉結構、產出前端骨架。Claude 負責讀 repo、看 API、補商業邏輯、檢查 edge c\u003Ca href=\"\u002Fnews\u002Fsupabase-mcp-ai-projects-zh\">ase\u003C\u002Fa>s。這種組合，比硬要選一個更合理。\u003C\u002Fp>\u003Cp>從數據上看，94.8 對 77.3 的差距很大，但要注意 benchmark 屬性。Design2Code 本來就偏向視覺還原與結構生成。它很適合測這類模型，但不代表它能完整代表所有 coding 場景。這點很多人會偷懶忽略，我覺得不行。\u003C\u002Fp>\u003Cul>\u003Cli>Design2Code：GLM-5V-Turbo 94.8，Claude Opus 4.6 77.3\u003C\u002Fli>\u003Cli>定位差異：前者偏視覺轉程式，後者偏通用推理\u003C\u002Fli>\u003Cli>適合場景：Figma、截圖、網頁重建、GUI agent\u003C\u002Fli>\u003Cli>較穩場景：後端推理、長 repo 分析、文字密集任務\u003C\u002Fli>\u003Cli>成本面：Z.ai 定價明顯更低\u003C\u002Fli>\u003C\u002Ful>\u003Cp>如果你是產品團隊，這個差異很現實。你不會拿一個最強聊天模型，硬去做所有介面自動化。那樣太貴，也太浪費。你會想找一個更便宜、而且在特定任務上更準的模型。GLM-5V-Turbo 看起來就是衝這個位置。\u003C\u002Fp>\u003Cp>老實說，這種產品策略比「我們什麼都最強」更可信。因為 AI 現在就是分工時代。沒有人有空等一個萬能模型。大家要的是能直接上線的工具。\u003C\u002Fp>\u003Ch2>中國 AI 硬體路線，現在更清楚了\u003C\u002Fh2>\u003Cp>GLM-5V-Turbo 的訓練方式，放大看很有代表性。它不是單純一個模型發布，而是把中國 AI 生態裡幾個元素串起來：自家模型、國產晶片、國產訓練框架。這條路線，跟美系雲端和 NVIDIA 堆疊的主流打法，差很多。\u003C\u002Fp>\u003Cp>這也反映出一個現實。AI 模型不只是演算法競賽。它同時是供應鏈競賽、算力競賽、還有部署成本競賽。誰能在限制較多的環境裡，把模型訓練和推理都跑順，誰就有更多商業空間。\u003C\u002Fp>\u003Cp>Z.ai 今年 1 月完成香港 IPO，募得約 5.58 億美元。這筆錢不只是拿來講故事。它可以燒在訓練、推理基礎設施、還有產品落地。對一家還在擴張的公司來說，這種資金彈性很重要。\u003C\u002Fp>\u003Cp>放到產業脈絡看，這也代表一件事：未來的 AI 競爭，不會只看「誰的模型分數高」。還要看誰能在特定硬體、特定法規、特定成本條件下，把產品做出來。這才是能活下去的路。\u003C\u002Fp>\u003Ch2>接下來，開發者該看什麼\u003C\u002Fh2>\u003Cp>我覺得最值得觀察的，不是單次 benchmark，而是它能不能變成日常工具。你可以先問自己一個很實際的問題：你的工作起點是什麼？如果是截圖、Figma、瀏覽器畫面、或文件版面，那 GLM-5V-Turbo 很值得試。\u003C\u002Fp>\u003Cp>如果你的工作主要是後端邏輯、程式碼重構、或大型 repo 分析，那你可能還是會偏向 Claude，或其他更擅長文字推理的模型。這很正常。工具就是工具，不需要神化。\u003C\u002Fp>\u003Cp>接下來幾個月，我會盯兩件事。第一，它在真實產品裡的錯誤率。第二，社群會不會把它接進現有的 UI agent 工具鏈。只要這兩件事做得起來，這顆模型就不只是 benchmark 贏家，而是會被放進 production 的選項。\u003C\u002Fp>\u003Cp>說真的，現在最該做的不是喊口號，而是找一個你手上的 design-to-code 任務，直接丟去測。看它能不能少改 30% 的前端草稿。這種數字，比任何形容詞都實在。\u003C\u002Fp>","Z.ai 的 GLM-5V-Turbo 在 Design2Code 拿下 94.8，壓過 Claude Opus 4.6 的 77.3。它還用 Huawei Ascend 完成訓練，主打視覺轉程式與 GUI agent 工作流。","oracore-original","https:\u002F\u002Fwww.marktechpost.com\u002F2026\u002F04\u002F01\u002Fz-ai-launches-glm-5v-turbo\u002F",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1775110615704-1xfb.png",[13,14,15,16,17,18,19,20,21,22],"Z.ai","GLM-5V-Turbo","Design2Code","Claude Opus 4.6","Huawei Ascend","MindSpore","vision-to-code","GUI agent","人工智慧","前端自動化","zh",2,false,"2026-04-02T04:03:36.31741+00:00","2026-04-02T04:03:36.268+00:00","done","ffce924e-4428-4120-b14a-e672c589e044","z-ai-glm-5v-turbo-design2code-claude-zh","model-release","ddb1e319-b31c-493c-8f7c-9bcb2a293bc9","published","2026-04-09T09:00:52.239+00:00",[36,37,39,40,42,44,47,49],{"name":22,"slug":22},{"name":18,"slug":38},"mindspore",{"name":21,"slug":21},{"name":14,"slug":41},"glm-5v-turbo",{"name":15,"slug":43},"design2code",{"name":45,"slug":46},"Z.AI","zai",{"name":17,"slug":48},"huawei-ascend",{"name":20,"slug":50},"gui-agent",{"id":32,"slug":52,"title":53,"language":54},"z-ai-glm-5v-turbo-design2code-claude-en","Z.ai’s GLM-5V-Turbo Beats Claude on Design2Code","en",[56,62,68,74,80,86],{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":31},"bd8cfc0e-66db-4546-9b9e-fa328f7538d6","weishenme-google-yincang-de-gemini-live-moxing-bi-yanshi-gen-zh","為什麼 Google 隱藏的 Gemini Live 模型，比演示更重要","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778869245574-c25w.png","2026-05-15T18:20:23.111559+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":31},"5b5fa24f-5259-4e9e-8270-b08b6805f281","minimax-m1-open-hybrid-attention-reasoning-model-zh","MiniMax-M1：開源 1M Token 推理模型","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778797859209-ea1g.png","2026-05-14T22:30:38.636592+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":31},"b1da56ac-8019-4c6b-a8dc-22e6e22b1cb5","gemini-omni-video-review-text-rendering-zh","Gemini Omni 影片模型怎麼了","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778779280109-lrrk.png","2026-05-14T17:20:42.608312+00:00",{"id":75,"slug":76,"title":77,"cover_image":78,"image_url":78,"created_at":79,"category":31},"d63e9d93-e613-4bbf-8135-9599fde11d08","why-xiaomi-mimo-v25-pro-changes-coding-agents-zh","為什麼 Xiaomi 的 MiMo-V2.5-Pro 改變的是 Coding …","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778689858139-v38e.png","2026-05-13T16:30:27.893951+00:00",{"id":81,"slug":82,"title":83,"cover_image":84,"image_url":84,"created_at":85,"category":31},"8f0c9185-52f9-46f2-82c6-5baec126ba2e","openai-realtime-audio-models-live-voice-zh","OpenAI 即時音訊模型瞄準語音互動","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778451657895-2iu7.png","2026-05-10T22:20:32.443798+00:00",{"id":87,"slug":88,"title":89,"cover_image":90,"image_url":90,"created_at":91,"category":31},"52106dc2-4eba-4ca0-8318-fa646064de97","anthropic-10-finance-ai-agents-zh","Anthropic推10款金融AI Agent","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778389843399-vclb.png","2026-05-10T05:10:22.778762+00:00",[93,98,103,108,113,118,123,128,133,138],{"id":94,"slug":95,"title":96,"created_at":97},"58b64033-7eb6-49b9-9aab-01cf8ae1b2f2","nvidia-rubin-six-chips-one-ai-supercomputer-zh","NVIDIA Rubin 把六顆晶片塞進 AI 機櫃","2026-03-26T07:18:45.861277+00:00",{"id":99,"slug":100,"title":101,"created_at":102},"0dcc2c61-c2a6-480d-adb8-dd225fc68914","march-2026-ai-model-news-what-mattered-zh","2026 年 3 月 AI 模型新聞重點","2026-03-26T07:32:08.386348+00:00",{"id":104,"slug":105,"title":106,"created_at":107},"214ab08b-5ce5-4b5c-8b72-47619d8675dd","why-small-models-are-winning-on-device-ai-zh","小模型為何吃下裝置端 AI","2026-03-26T07:36:30.488966+00:00",{"id":109,"slug":110,"title":111,"created_at":112},"785624b2-0355-4b82-adc3-de5e45eecd88","midjourney-v8-faster-images-higher-costs-zh","Midjourney V8 變快了，也變貴了","2026-03-26T07:52:03.562971+00:00",{"id":114,"slug":115,"title":116,"created_at":117},"cda76b92-d209-4134-86c1-a60f5bc7b128","xiaomi-mimo-trio-agents-robots-voice-zh","小米 MiMo 三模型瞄準代理、機器人與語音","2026-03-28T03:05:08.779489+00:00",{"id":119,"slug":120,"title":121,"created_at":122},"9e1044b4-946d-47fe-9e2a-c2ee032e1164","xiaomi-mimo-v2-pro-1t-moe-agents-zh","小米 MiMo-V2-Pro 登場：1T MoE 模型","2026-03-28T03:06:19.002353+00:00",{"id":124,"slug":125,"title":126,"created_at":127},"d68e59a2-55eb-4a8f-95d6-edc8fcbff581","cursor-composer-2-started-from-kimi-zh","Cursor Composer 2 其實從 Kimi 起步","2026-03-28T03:11:58.893796+00:00",{"id":129,"slug":130,"title":131,"created_at":132},"c4b6186f-bd84-4598-997e-c6e31d543c0d","cursor-composer-2-agentic-coding-model-zh","Cursor Composer 2 走向代理式寫碼","2026-03-28T03:13:06.422716+00:00",{"id":134,"slug":135,"title":136,"created_at":137},"45812c46-99fc-4b1f-aae1-56f64f5c9024","openai-shuts-down-sora-video-app-api-zh","OpenAI 關閉 Sora App 與 API","2026-03-29T04:47:48.974108+00:00",{"id":139,"slug":140,"title":141,"created_at":142},"e112e76f-ec3b-408f-810e-e93ae21a888a","apple-siri-gemini-distilled-models-zh","Apple Siri 牽手 Gemini 的真相","2026-03-29T04:52:57.886544+00:00"]