[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-qwen36-27b-open-source-coding-model-zh":3,"tags-qwen36-27b-open-source-coding-model-zh":34,"related-lang-qwen36-27b-open-source-coding-model-zh":45,"related-posts-qwen36-27b-open-source-coding-model-zh":49,"series-model-release-14d41e89-8fff-4e3a-b021-2a64f29279ca":86},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":21,"translated_content":10,"views":22,"is_premium":23,"created_at":24,"updated_at":24,"cover_image":25,"published_at":26,"rewrite_status":27,"rewrite_error":10,"rewritten_from_id":28,"slug":29,"category":30,"related_article_id":31,"status":32,"google_indexed_at":33,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":23},"14d41e89-8fff-4e3a-b021-2a64f29279ca","Qwen3.6-27B：更小卻更準的寫碼路線","\u003Cp>阿里巴巴的 \u003Ca href=\"https:\u002F\u002Fqwen.ai\u002F\" target=\"_blank\" rel=\"noopener\">Qwen\u003C\u002Fa> 團隊又丟出一顆重磅模型，名字叫 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\" target=\"_blank\" rel=\"noopener\">Qwen3.6-27B\u003C\u002Fa>。它是 270 億參數的 dense multimodal 模型，不是那種動不動就上百 B 的怪獸。\u003C\u002Fp>\u003Cp>但數字很有意思。它在 \u003Ca href=\"https:\u002F\u002Fwww.swebench.com\u002F\" target=\"_blank\" rel=\"noopener\">SWE-bench Verified\u003C\u002Fa> 拿到 77.2。這個分數還壓過更大的 Qwen3.5-397B-A17B。講白了，就是更小，卻更會寫碼。\u003C\u002Fp>\u003Cp>對開發者來說，這種結果很實際。你不只看模型有多大。你還要看它好不好部署，延遲高不高，伺服器扛不扛得住。Qwen3.6-27B 直接把這題拉到桌面上。\u003C\u002Fp>\u003Ch2>為什麼這次發表很有看頭\u003C\u002Fh2>\u003Cp>這次的重點，不是 Qwen 又發了新模型。重點是，27B dense 模型居然能打贏 397B MoE 模型。這差距不是小修小補。這是架構選擇開始影響實戰結果。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777260630350-1mxe.png\" alt=\"Qwen3.6-27B：更小卻更準的寫碼路線\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>Qwen3.6-27B 主打 agentic coding。也就是說，它不是只會補幾行程式碼。它要能處理終端機、修 bug、看文件，還要能在多輪互動裡持續做事。這種任務很吃模型穩定性。\u003C\u002Fp>\u003Cp>它還支援 thinking 與 non-thinking 兩種模式。再加上圖片、影片、文字輸入，這就不是單純的 code model 了。它比較像一個可以看畫面、讀 log、理解文件的工作型 LLM。\u003C\u002Fp>\u003Cul>\u003Cli>模型規模：27B，dense 架構\u003C\u002Fli>\u003Cli>對手：Qwen3.5-397B-A17B，397B MoE，17B active parameters\u003C\u002Fli>\u003Cli>可用管道：\u003Ca href=\"https:\u002F\u002Fchat.qwen.ai\u002F\" target=\"_blank\" rel=\"noopener\">Qwen Studio\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\" target=\"_blank\" rel=\"noopener\">Hugging Face\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Forganization\u002FQwen\" target=\"_blank\" rel=\"noopener\">ModelScope\u003C\u002Fa>\u003C\u002Fli>\u003Cli>雲端 API：\u003Ca href=\"https:\u002F\u002Fwww.alibabacloud.com\u002Fproduct\u002Fbailian\" target=\"_blank\" rel=\"noopener\">Alibaba Cloud Bailian\u003C\u002Fa>\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我覺得這裡最重要的，不是「它更小」。而是它更容易進 production。dense 模型不用像 MoE 那樣做 expert routing。少一層複雜度，通常就少一堆部署麻煩。\u003C\u002Fp>\u003Cp>對台灣很多團隊來說，這很有感。你可能沒有超大 GPU 叢集。你可能只有幾台伺服器。這時候，模型能不能穩定跑，比 paper 上的參數數字更重要。\u003C\u002Fp>\u003Ch2>Benchmark 數字才是主菜\u003C\u002Fh2>\u003Cp>很多模型發表都愛講故事，但這次的分數真的有料。Qwen3.6-27B 在 SWE-bench Verified 拿 77.2，在 SWE-bench Pro 拿 53.5，在 Terminal-Bench 2.0 拿 59.3，在 SkillsBench 拿 48.2。\u003C\u002Fp>\u003Cp>對比 Qwen3.5-397B-A17B，分數分別是 76.2、50.9、52.5、30.0。你會發現，Qwen3.6-27B 幾乎在每個項目都更好。尤其 SkillsBench，差了快 18 分，這不是小事。\u003C\u002Fp>\u003Cp>這代表\u003Ca href=\"\u002Fnews\u002Fai-zh\">什麼\u003C\u002Fa>？代表它不只是會背程式碼。它在 agent 工作流裡，可能更會做決策、更會接續上下文，也更懂得怎麼把任務做完。這種差異，對 coding assist\u003Ca href=\"\u002Fnews\u002Fcognizant-codex-zh\">ant\u003C\u002Fa> 很要命。\u003C\u002Fp>\u003Cblockquote>“The future of AI is not about bigger models. It’s about better models.” — Sam Altman, OpenAI DevDay 2023\u003C\u002Fblockquote>\u003Cp>這句話拿來看 Qwen3.6-27B 很貼切。因為這次大家討論的重點，已經不是參數數字有多大。重點變成，這模型到底能幫開發者省多少工。\u003C\u002Fp>\u003Cp>另外，Qwen 還提到 GPQA Diamond 87.8。這不是 coding benchmark，但它可以補一個訊號。模型的推理能力沒有只卡在程式題目上。\u003C\u002Fp>\u003Cul>\u003Cli>SWE-bench Verified：77.2 vs 76.2\u003C\u002Fli>\u003Cli>SWE-bench Pro：53.5 vs 50.9\u003C\u002Fli>\u003Cli>Terminal-Bench 2.0：59.3 vs 52.5\u003C\u002Fli>\u003Cli>SkillsBench：48.2 vs 30.0\u003C\u002Fli>\u003Cli>GPQA Diamond：87.8\u003C\u002Fli>\u003C\u002Ful>\u003Cp>如果你只看一個數字，我會選 SkillsBench。因為 agentic coding 最怕的是模型只會答題，不會做事。這個分數差距，剛好點出它在實際工作流裡的優勢。\u003C\u002Fp>\u003Cp>而且它贏的是更大的 MoE 模型。這種結果會讓很多人重新想一遍：到底是堆參數比較重要，還是把架構和訓練方向調準比較重要？\u003C\u002Fp>\u003Ch2>開發者今天就能怎麼用\u003C\u002Fh2>\u003Cp>Qwen3.6-27B 已經能在 \u003Ca href=\"https:\u002F\u002Fchat.qwen.ai\u002F\" target=\"_blank\" rel=\"noopener\">Qwen Studio\u003C\u002Fa> 試用。權重也放在 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\" target=\"_blank\" rel=\"noopener\">Hugging Face\u003C\u002Fa> 和 \u003Ca href=\"https:\u002F\u002Fwww.modelscope.cn\u002Forganization\u002FQwen\" target=\"_blank\" rel=\"noopener\">ModelScope\u003C\u002Fa>。這代表你可以先線上試，再決定要不要拉進內部環境。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777260624552-xc58.png\" alt=\"Qwen3.6-27B：更小卻更準的寫碼路線\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>對團隊來說，這很方便。你不用等封閉測試。你可以直接拿它做 code review、文件理解、或內部 agent 測試。這種開放程度，對開發流程很友善。\u003C\u002Fp>\u003Cp>它也能接到一些現成工具，像 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOpenClawAI\u002FOpenClaw\" target=\"_blank\" rel=\"noopener\">OpenClaw\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code\" target=\"_blank\" rel=\"noopener\">Claude Code\u003C\u002Fa>，還有 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002Fqwen-code\" target=\"_blank\" rel=\"noopener\">Qwen Code\u003C\u002Fa>。這點很關鍵。因為它不是要你整套重做，而是想塞進你本來就在用的工作流。\u003C\u002Fp>\u003Cp>它還支援圖片和影片。這就很適合 UI debug、看截圖找 bug、或讀設計稿。你可能會想問，這跟一般 code model 差在哪？差在它能處理更多真實世界的髒資料。\u003C\u002Fp>\u003Cp>Qwen 也提到未來 API 會支援 preserve_thinking。對 agent 來說，這種功能很實用。它可以讓模型保留前面的推理脈絡，少一點重複說明。\u003C\u002Fp>\u003Cp>如果這功能真的穩，長對話的 coding session 會順很多。你不用一直重講需求。模型也比較不會在中途斷線式失憶。\u003C\u002Fp>\u003Ch2>跟其他開源模型比，差在哪\u003C\u002Fh2>\u003Cp>把 Qwen3.6-27B 放到開源模型市場看，位置其實很清楚。它不是最大，也不是最吵。但它很像那種「實戰派」模型。dense、multimodal、又偏 agentic coding。\u003C\u002Fp>\u003Cp>這跟一些大型 MoE 模型的路線不同。MoE 很強，但部署常常比較麻煩。你要處理 routing，要處理資源分配，還要考慮 latency 抖動。對很多產品團隊來說，這些都不是小事。\u003C\u002Fp>\u003Cp>下面這個比較，會比較有感：\u003C\u002Fp>\u003Cul>\u003Cli>\u003Ca href=\"https:\u002F\u002Fai.meta.com\u002Fllama\u002F\" target=\"_blank\" rel=\"noopener\">Meta Llama\u003C\u002Fa>：生態系很大，但在 coding agent 的專注度上，Qwen 這次更兇。\u003C\u002Fli>\u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.deepseek.com\u002F\" target=\"_blank\" rel=\"noopener\">DeepSeek\u003C\u002Fa>：在 coding 和 reasoning 很有存在感，但 Qwen3.6-27B 的 dense 架構更好部署。\u003C\u002Fli>\u003Cli>\u003Ca href=\"https:\u002F\u002Fqwen.ai\u002F\" target=\"_blank\" rel=\"noopener\">Qwen3.5-397B-A17B\u003C\u002Fa>：參數更大，卻在這批 benchmark 上輸給 27B 版本。\u003C\u002Fli>\u003Cli>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3\" target=\"_blank\" rel=\"noopener\">Qwen 開源系列\u003C\u002Fa>：持續往可落地的 agent 工作流靠近。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>說白了，這次不是在比誰比較會喊口號。是在比誰比較能進機房。27B dense 模型通常更容易塞進實際預算，也更容易做 latency 優化。\u003C\u002Fp>\u003Cp>如果你在做 AI coding 產品，這種差異很現實。你不是只要分數漂亮。你還要 API 穩、成本可控、回應速度別太慢。\u003C\u002Fp>\u003Ch2>這波對開源 AI coding 的意義\u003C\u002Fh2>\u003Cp>Qwen3.6-27B 其實在提醒大家一件事。現在的模型競爭，不再只是比誰聊天比較像人。更重要的是，誰能在 terminal、repo、log、文件、截圖裡一起工作。\u003C\u002Fp>\u003Cp>這也是為什麼 agentic coding 會變成主戰場。因為開發工作本來就不是單輪問答。它是修 bug、改檔案、重跑測試、再回頭修正。模型如果只會一次性回答，就很難真的上線。\u003C\u002Fp>\u003Cp>我覺得接下來開源模型的分水嶺，會是「能不能穩定做事」。不是「能不能講得漂亮」。Qwen3.6-27B 這次的 benchmark，剛好把這件事講得很直白。\u003C\u002Fp>\u003Cp>如果它在社群測試裡也維持這個表現，那它很可能會變成很多團隊的預設選項。尤其是那些想做內部 coding assistant，卻又不想背太高推理成本的團隊。\u003C\u002Fp>\u003Cp>對台灣開發團隊來說，這個方向很實際。你可以先拿它做小規模 A\u002FB test。看它在你的 repo、你的語言、你的 CI 流程裡，到底能不能省時間。\u003C\u002Fp>\u003Ch2>接下來該怎麼看\u003C\u002Fh2>\u003Cp>我會建議先看兩件事。第一，社群實測會不會跟 benchmark 一樣漂亮。第二，它在真實專案裡的 token 成本和延遲表現怎樣。這兩個數字，會決定它能不能進 production。\u003C\u002Fp>\u003Cp>如果你現在就在選 coding model，Qwen3.6-27B 值得先跑一輪。不是因為它名字新，而是因為它把「小模型也能做重活」這件事，做得很像樣。你可以先從一個內部 repo 開始測。\u003C\u002Fp>\u003Cp>我自己的判斷很直接：接下來 6 到 12 個月，真正吃香的 o\u003Ca href=\"\u002Fnews\u002Fwhy-openai-must-stop-treating-violent-threats-as-a-threshold-zh\">pen\u003C\u002Fa> model，不會只是參數最大的那個。會是部署成本、推理品質、agent 穩定度都平衡得好的那個。Qwen3.6-27B 已經把這條路畫得很清楚。\u003C\u002Fp>","Qwen3.6-27B 是 27B dense multimodal 模型，在 SWE-bench Verified 拿到 77.2，還贏過更大的 Qwen3.5-397B-A17B。對開發團隊來說，這代表更好部署，也更適合 agentic coding。","zhuanlan.zhihu.com","https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F2030389090131165374",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777260630350-1mxe.png",[13,14,15,16,17,18,19,20],"Qwen3.6-27B","開源模型","AI寫程式","agentic coding","SWE-bench Verified","dense model","multimodal LLM","Hugging Face","zh",1,false,"2026-04-27T00:12:38.326898+00:00","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Fskill-cover-qwen36-27b-zh_-1777263004.png","2026-04-27T00:12:38.182+00:00","done","0e09dd30-7727-4e44-ace5-f90746d7ac36","qwen36-27b-open-source-coding-model-zh","model-release","674cce69-5be8-4c32-bfbd-32ab6fd2fcd7","published","2026-04-27T09:00:07.784+00:00",[35,37,38,40,42],{"name":15,"slug":36},"ai寫程式",{"name":14,"slug":14},{"name":16,"slug":39},"agentic-coding",{"name":13,"slug":41},"qwen36-27b",{"name":43,"slug":44},"SWE-Bench Verified","swe-bench-verified",{"id":31,"slug":46,"title":47,"language":48},"qwen36-27b-open-source-coding-model-en","Qwen3.6-27B opens a smaller, sharper path to coding","en",[50,56,62,68,74,80],{"id":51,"slug":52,"title":53,"cover_image":54,"image_url":54,"created_at":55,"category":30},"5b5fa24f-5259-4e9e-8270-b08b6805f281","minimax-m1-open-hybrid-attention-reasoning-model-zh","MiniMax-M1：開源 1M Token 推理模型","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778797859209-ea1g.png","2026-05-14T22:30:38.636592+00:00",{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":30},"b1da56ac-8019-4c6b-a8dc-22e6e22b1cb5","gemini-omni-video-review-text-rendering-zh","Gemini Omni 影片模型怎麼了","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778779280109-lrrk.png","2026-05-14T17:20:42.608312+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":30},"d63e9d93-e613-4bbf-8135-9599fde11d08","why-xiaomi-mimo-v25-pro-changes-coding-agents-zh","為什麼 Xiaomi 的 MiMo-V2.5-Pro 改變的是 Coding …","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778689858139-v38e.png","2026-05-13T16:30:27.893951+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":30},"8f0c9185-52f9-46f2-82c6-5baec126ba2e","openai-realtime-audio-models-live-voice-zh","OpenAI 即時音訊模型瞄準語音互動","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778451657895-2iu7.png","2026-05-10T22:20:32.443798+00:00",{"id":75,"slug":76,"title":77,"cover_image":78,"image_url":78,"created_at":79,"category":30},"52106dc2-4eba-4ca0-8318-fa646064de97","anthropic-10-finance-ai-agents-zh","Anthropic推10款金融AI Agent","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778389843399-vclb.png","2026-05-10T05:10:22.778762+00:00",{"id":81,"slug":82,"title":83,"cover_image":84,"image_url":84,"created_at":85,"category":30},"6ee6ed2a-35c6-4be3-ba2c-43847e592179","why-claudes-infinite-context-window-wont-autonomous-zh","為什麼 Claude 的「無限」上下文窗口，仍然不會讓 AI 自主運作","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778350250836-d5d5.png","2026-05-09T18:10:27.004984+00:00",[87,92,97,102,107,112,117,122,127,132],{"id":88,"slug":89,"title":90,"created_at":91},"58b64033-7eb6-49b9-9aab-01cf8ae1b2f2","nvidia-rubin-six-chips-one-ai-supercomputer-zh","NVIDIA Rubin 把六顆晶片塞進 AI 機櫃","2026-03-26T07:18:45.861277+00:00",{"id":93,"slug":94,"title":95,"created_at":96},"0dcc2c61-c2a6-480d-adb8-dd225fc68914","march-2026-ai-model-news-what-mattered-zh","2026 年 3 月 AI 模型新聞重點","2026-03-26T07:32:08.386348+00:00",{"id":98,"slug":99,"title":100,"created_at":101},"214ab08b-5ce5-4b5c-8b72-47619d8675dd","why-small-models-are-winning-on-device-ai-zh","小模型為何吃下裝置端 AI","2026-03-26T07:36:30.488966+00:00",{"id":103,"slug":104,"title":105,"created_at":106},"785624b2-0355-4b82-adc3-de5e45eecd88","midjourney-v8-faster-images-higher-costs-zh","Midjourney V8 變快了，也變貴了","2026-03-26T07:52:03.562971+00:00",{"id":108,"slug":109,"title":110,"created_at":111},"cda76b92-d209-4134-86c1-a60f5bc7b128","xiaomi-mimo-trio-agents-robots-voice-zh","小米 MiMo 三模型瞄準代理、機器人與語音","2026-03-28T03:05:08.779489+00:00",{"id":113,"slug":114,"title":115,"created_at":116},"9e1044b4-946d-47fe-9e2a-c2ee032e1164","xiaomi-mimo-v2-pro-1t-moe-agents-zh","小米 MiMo-V2-Pro 登場：1T MoE 模型","2026-03-28T03:06:19.002353+00:00",{"id":118,"slug":119,"title":120,"created_at":121},"d68e59a2-55eb-4a8f-95d6-edc8fcbff581","cursor-composer-2-started-from-kimi-zh","Cursor Composer 2 其實從 Kimi 起步","2026-03-28T03:11:58.893796+00:00",{"id":123,"slug":124,"title":125,"created_at":126},"c4b6186f-bd84-4598-997e-c6e31d543c0d","cursor-composer-2-agentic-coding-model-zh","Cursor Composer 2 走向代理式寫碼","2026-03-28T03:13:06.422716+00:00",{"id":128,"slug":129,"title":130,"created_at":131},"45812c46-99fc-4b1f-aae1-56f64f5c9024","openai-shuts-down-sora-video-app-api-zh","OpenAI 關閉 Sora App 與 API","2026-03-29T04:47:48.974108+00:00",{"id":133,"slug":134,"title":135,"created_at":136},"e112e76f-ec3b-408f-810e-e93ae21a888a","apple-siri-gemini-distilled-models-zh","Apple Siri 牽手 Gemini 的真相","2026-03-29T04:52:57.886544+00:00"]