[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-ai-agents-token-spending-coding-tasks-zh":3,"tags-ai-agents-token-spending-coding-tasks-zh":31,"related-lang-ai-agents-token-spending-coding-tasks-zh":43,"related-posts-ai-agents-token-spending-coding-tasks-zh":47,"series-research-b2725e14-d169-4ef3-9b57-0cc23a7e9338":84},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":18,"translated_content":10,"views":19,"is_premium":20,"created_at":21,"updated_at":22,"cover_image":11,"published_at":23,"rewrite_status":24,"rewrite_error":10,"rewritten_from_id":25,"slug":26,"category":27,"related_article_id":28,"status":29,"google_indexed_at":30,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":20},"b2725e14-d169-4ef3-9b57-0cc23a7e9338","AI 代理寫程式：token 比 chat 多燒 1000 倍","\u003Cp>AI 代理寫程式越來越像真的能幹活，但代價也開始浮現。這篇論文 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.22750\">How Do AI Agents Spend Your Money? Analyzing and Predicting Token Consumption in Agentic Coding Tasks\u003C\u002Fa>，直接把焦點放在一個很實際的問題：當 agent 開始讀檔、呼叫工具、反覆嘗試修 code 時，token 到底是怎麼被燒掉的。\u003C\u002Fp>\u003Cp>這不是單純在比誰答得準，而是把「成本」拉到檯面上。對開發者來說，這件事很重要，因為 agent 的費用常常不是出在最後那段輸出，而是出在前面一輪又一輪的上下文讀取、工具互動與重試。你看到的是一次修 bug，帳單看到的可能是整段流程。\u003C\u002Fp>\u003Cp>論文的核心訊息很直接：代理式寫程式不是一般的 LLM 工作負載。它的 token 消耗高、波動大，而且 frontier model 目前也還不太會自己準確估算成本。這代表 token 不是後台細節，而是系統設計的一部分。\u003C\u002Fp>\u003Ch2>這篇研究在解什麼痛點\u003C\u002Fh2>\u003Cp>當 \u003Ca href=\"\u002Fnews\u002Fai-weekly-2026-w18-zh\">AI\u003C\u002Fa> agent 從 demo 走進真實流程，token 花費就不再只是帳務欄位，而是產品與基礎設施問題。agent 會不會一直讀上下文、一直 retry、一直打工具，直接影響成本。即使最後答案差不多，過程也可能差很多。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270011749-e4p3.png\" alt=\"AI 代理寫程式，token 為何狂燒\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這篇研究想回答三個實務問題。第一，token 都花在哪裡。第二，同樣任務下，哪些\u003Ca href=\"\u002Fnews\u002F-zh\">模型\u003C\u002Fa>比較省。第三，模型能不能在開始前先估算自己大概要燒多少 token，讓系統可以先做預算、分流或限制。\u003C\u002Fp>\u003Cp>作者把焦點放在 agentic cod\u003Ca href=\"\u002Fnews\u002Factive-experiment-selection-cheaper-scaling-laws-zh\">ing\u003C\u002Fa> tasks，因為這類任務很適合當壓力測試：上下文長、工具多、推理過程反覆，成本特性會被放大。研究使用的是 SWE-bench Verified 上的軌跡，並分析八個 frontier LLM 的 token 消耗模式，以及模型在執行前自我預測成本的能力。\u003C\u002Fp>\u003Cp>換句話說，這篇不是在提一個新演算法，而是在拆解現有 agent 工作流的成本結構。這個角度對做產品的人很有用，因為很多時候真正的瓶頸不是模型不會做，而是做一次太貴、太不穩定。\u003C\u002Fp>\u003Ch2>方法怎麼看，白話版\u003C\u002Fh2>\u003Cp>研究方法偏觀察式與比較式。作者收集八個 frontier 模型在同一個 coding benchmark 上的 agent trajectories，再比較每次執行消耗多少 token，以及這些成本跟任務結果之間的關係。\u003C\u002Fp>\u003Cp>他們不只看「有沒有修好」，還看「修這題花了多少」。這個差別很重要，因為在 agent 系統裡，成功不等於划算。某些模型可能能解題，但要先吃掉大量上下文、反覆試錯，成本就會被拉高。\u003C\u002Fp>\u003Cp>論文也把 input tokens 和 output tokens 分開看。這點很關鍵，因為 agent 的成本常常不是輸出文字本身，而是前面那些被反覆餵進模型的內容。讀檔、重送上下文、工具回傳結果，這些都會堆高 input tokens。\u003C\u002Fp>\u003Cp>另一個角度是「可預測性」。作者測試模型能不能在執行前估算自己的 token 消耗。這等於在問：模型是否知道自己這次任務會不會很燒錢？如果答案是否定的，那麼想靠模型自我報價來做路由或預算控管，就會有風險。\u003C\u002Fp>\u003Cp>論文也拿人類專家對任務難度的評分來對照實際 token 花費。這是在檢查一件很現實的事：人類覺得難的題目，是否真的會讓 agent 燒更多 token？\u003C\u002Fp>\u003Ch2>論文實際證明了什麼\u003C\u002Fh2>\u003Cp>最醒目的結果是：agentic coding 的 token 消耗非常誇張。論文指出，這類任務消耗的 token 比 code reasoning 和 code chat 高出 1000 倍，而且主要是 input tokens 在驅動總成本。也就是說，真正燒錢的不是最後吐出來的答案，而是前面那堆反覆吃進去的上下文。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270013062-64gh.png\" alt=\"AI 代理寫程式，token 為何狂燒\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這個發現對做 agent 的團隊很重要。很多人直覺會盯著模型輸出長不長，但這篇研究提醒你，真正的成本黑洞常常藏在輸入端。只要 agent 一直帶著大量歷史狀態、工具輸出和重試內容跑，費用就會迅速放大。\u003C\u002Fp>\u003Cp>而且成本不是穩定的。論文指出，同一個任務在不同 run 之間，總 token 最高可差到 30 倍。這代表 token 花費不是單純由 benchmark 任務決定，而是帶有很強的隨機性。對平台來說，這種波動會直接影響預算、延遲和資源配置。\u003C\u002Fp>\u003Cp>更有意思的是，多花 token 不一定換來更好的結果。作者觀察到，accuracy 往往在中等成本時就達到高點，之後再往上加碼，表現會趨於飽和。這打破了「多花一點就會更準」的直覺。\u003C\u002Fp>\u003Cp>模型之間也有明顯差異。論文提到，在相同任務下，Kimi-K2 和 Claude-Sonnet-4.5 平均比 GPT-5 多消耗超過 150 萬個 token。這不是小差距，而是會直接影響 production 成本的等級。對要做模型選型的人來說，token efficiency 可能跟解題能力一樣重要。\u003C\u002Fp>\u003Cp>人類對難度的直覺也不太可靠。研究發現，專家標註的任務難度只和實際 token 花費有弱相關。也就是說，光靠人眼看題目，很難準確預估 agent 會燒多少資源。\u003C\u002Fp>\u003Cp>最後，模型自己也不太會算。frontier models 對自身 token 使用量的預測只有弱到中等的相關性，最高到 0.39，而且普遍低估真實成本。這表示如果你想把「模型自己報價」當成成本控制機制，目前還不夠穩。\u003C\u002Fp>\u003Ch2>對開發者的實際影響\u003C\u002Fh2>\u003Cp>如果你在做 agentic coding workflow，這篇研究的第一個提醒很簡單：token cost 要當成一級指標。不要只看成功率，還要看每次成功付出了多少代價。兩個看起來差不多的任務，最後帳單可能差很多。\u003C\u002Fp>\u003Cp>這會影響產品設計，也會影響基礎設施規劃。你可能需要 token budget、重試上限、路由規則，或是在任務開始前先做成本分流。尤其當系統要處理大量使用者請求時，成本波動本身就是風險。\u003C\u002Fp>\u003Cp>這篇研究也在提醒一件常被忽略的事：benchmark 成績不等於 production 適配度。若兩個模型解題率差不多，但其中一個能用更少 token 完成，後者在真實環境裡可能更划算，也更容易控制延遲。\u003C\u002Fp>\u003Cp>對平台團隊來說，這篇論文還揭露了人類直覺和 agent 行為之間的落差。既然專家難以準確預測 token 花費，那麼靠人工判斷來做成本預估，效果很可能有限。成本管理可能得更多依賴系統化量測，而不是經驗猜測。\u003C\u002Fp>\u003Cp>這也意味著，下一波 agent 優化不一定只是追求更高分數，而是把同樣能力做得更便宜、更穩定、更可預算。對實務落地來說，這通常比多拿一點 benchmark 分數更重要。\u003C\u002Fp>\u003Ch2>限制與還沒回答的問題\u003C\u002Fh2>\u003Cp>這裡也要說清楚，這份來源是 abstract 級別的資訊，所以沒有公開完整 benchmark 細節、逐模型成本表或更細的實作設定。也就是說，這篇摘要沒有公開完整 benchmark 細節；如果要深入檢查實驗設計，還是得看全文。\u003C\u002Fp>\u003Cp>另外，研究聚焦在 SWE-bench Verified 與八個 frontier LLM。這讓結果對 agentic coding 很有代表性，但不代表能直接外推到所有工具型工作流，或所有模型家族。不同任務、不同工具鏈、不同上下文管理方式，成本型態都可能變。\u003C\u002Fp>\u003Cp>還有一個開放問題是：如果改變 prompting 策略、工具流程，或 context 管理方式，token 消耗會不會明顯下降？這篇研究已經指出 input tokens 是主要成本來源，也指出波動很大，但它沒有宣稱已經解決效率問題。\u003C\u002Fp>\u003Cp>不過，這個結論本身已經很有價值。它告訴開發者，代理式寫程式的成本不是附帶現象，而是系統行為的一部分。想把 agent 做到能上線、能擴量、能控預算，就不能只看「會不會做」，還要看「做一次要燒多少」。\u003C\u002Fp>\u003Cul>\u003Cli>代理式寫程式的 token 成本可能遠高於一般 code chat 或 reasoning。\u003C\u002Fli>\u003Cli>input tokens 是主要成本來源，不是 output。\u003C\u002Fli>\u003Cli>同一任務的成本波動很大，最高可差到 30 倍。\u003C\u002Fli>\u003Cli>更多 token 不一定帶來更高 accuracy。\u003C\u002Fli>\u003Cli>模型目前還不擅長預測自己的成本。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>對台灣開發者來說，這篇研究的訊號很清楚：如果你正在做 AI coding agent，下一個要優化的，不只是模型準不準，而是它到底有多會燒 token。能解題只是起點，能穩定、可預測、可控成本地解題，才比較接近能上線的系統。\u003C\u002Fp>","這篇研究看 SWE-bench Verified 上的代理式寫程式，發現 token 花費可比一般 code chat 高出 1000 倍，且多半是 input 在燒錢，成本還很難預測。","arxiv.org","https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.22750",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777270011749-e4p3.png",[13,14,15,16,17],"AI agents","token consumption","agentic coding","SWE-bench Verified","LLM cost","zh",6,false,"2026-04-27T06:06:37.206415+00:00","2026-05-01T09:58:59.221017+00:00","2026-04-27T06:06:37.119+00:00","done","5d671e82-10f0-4cf3-bef9-c9be08f90387","ai-agents-token-spending-coding-tasks-zh","research","904270f5-c35d-4938-915f-99b405511466","published","2026-04-27T09:00:07.333+00:00",[32,34,36,39,41],{"name":17,"slug":33},"llm-cost",{"name":15,"slug":35},"agentic-coding",{"name":37,"slug":38},"SWE-Bench Verified","swe-bench-verified",{"name":14,"slug":40},"token-consumption",{"name":13,"slug":42},"ai-agents",{"id":28,"slug":44,"title":45,"language":46},"ai-agents-token-spending-coding-tasks-en","AI Coding Agents Burn 1000x More Tokens Than Chat","en",[48,54,60,66,72,78],{"id":49,"slug":50,"title":51,"cover_image":52,"image_url":52,"created_at":53,"category":27},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":55,"slug":56,"title":57,"cover_image":58,"image_url":58,"created_at":59,"category":27},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":61,"slug":62,"title":63,"cover_image":64,"image_url":64,"created_at":65,"category":27},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":67,"slug":68,"title":69,"cover_image":70,"image_url":70,"created_at":71,"category":27},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":73,"slug":74,"title":75,"cover_image":76,"image_url":76,"created_at":77,"category":27},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":79,"slug":80,"title":81,"cover_image":82,"image_url":82,"created_at":83,"category":27},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[85,90,95,100,105,110,115,120,125,130],{"id":86,"slug":87,"title":88,"created_at":89},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":91,"slug":92,"title":93,"created_at":94},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":96,"slug":97,"title":98,"created_at":99},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":101,"slug":102,"title":103,"created_at":104},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":106,"slug":107,"title":108,"created_at":109},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":111,"slug":112,"title":113,"created_at":114},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":116,"slug":117,"title":118,"created_at":119},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":121,"slug":122,"title":123,"created_at":124},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":126,"slug":127,"title":128,"created_at":129},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":131,"slug":132,"title":133,"created_at":134},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]