[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-recursive-multi-agent-systems-token-efficiency-zh":3,"tags-recursive-multi-agent-systems-token-efficiency-zh":30,"related-lang-recursive-multi-agent-systems-token-efficiency-zh":41,"related-posts-recursive-multi-agent-systems-token-efficiency-zh":45,"series-research-6581dbcf-4d19-4d97-bc10-371b2e66aab1":82},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":18,"translated_content":10,"views":19,"is_premium":20,"created_at":21,"updated_at":21,"cover_image":11,"published_at":22,"rewrite_status":23,"rewrite_error":10,"rewritten_from_id":24,"slug":25,"category":26,"related_article_id":27,"status":28,"google_indexed_at":29,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":20},"6581dbcf-4d19-4d97-bc10-371b2e66aab1","遞迴多代理系統可省 token","\u003Cp>多代理系統現在很常見，但大多還是靠文字來回傳訊。這種做法直觀，卻也很耗 token。每一輪協作都要把資訊說清楚、讀進去、再重寫一次，過程中不只成本上升，原本有用的結構也可能被文字稀釋掉。\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.25917\">Recursive Multi-Agent Systems\u003C\u002Fa> 這篇論文想解的，就是這個痛點。\u003C\u002Fp>\u003Cp>作者提出的方向不是再多加幾個 agent，而是把整個協作流程改寫成一個遞迴的潛在計算。簡單講，系統不必一直把內部思考翻成自然語言，再讓下一個 agent 讀回去；它可以在 latent space 裡持續修正自己，讓多代理協作變成一個可遞迴、可訓練、也更省 token 的整體流程。\u003C\u002Fp>\u003Ch2>這篇論文在修哪個瓶頸\u003C\u002Fh2>\u003Cp>傳統多代理系統常見的設計，是把多個模型或多個角色串成鏈，或者做成迴圈。這種架構能工作，但代價很明顯：每一步都要產生文字，每一步都要消耗 token。當協作輪次變多時，延遲、冗餘和成本也一起上升。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777442638259-m4uc.png\" alt=\"遞迴多代理系統可省 token\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>作者把這個問題看成一種結構性瓶頸。不是單一 agent 不夠強，而是協作層本身太依賴文字。也就是說，系統花了很多 token 在「溝通」，卻不一定把這些 token 轉成更好的推理品質。這正是 RecursiveMAS 想要改掉的地方。\u003C\u002Fp>\u003Cp>論文的出發點還有一層背景：遞迴語言模型已經證明，反覆在 latent state 上精煉同一個計算，可以成為新的 scaling axis。作者進一步追問，這個概念能不能從單一模型擴展到多代理協作。換句話說，不只是模型本身可以遞迴，多個 agent 的互動也可以被視為一個遞迴計算。\u003C\u002Fp>\u003Ch2>RecursiveMAS 到底怎麼運作\u003C\u002Fh2>\u003Cp>這套框架叫 RecursiveMAS。它的核心不是把 agent 變少，而是把 agent 之間的交換方式換掉。作者把整個多代理系統視為一個統一的遞迴計算，讓各個 agent 在 latent space 裡交換「想法」，而不是一直用完整文字訊息互傳。\u003C\u002Fp>\u003Cp>中間的關鍵元件叫 RecursiveLink。論文把它描述成一個輕量模組，用來連接異質 agent。它支援兩件事：一是 in-distribution 的 latent thought generation，二是 cross-agent latent state transfer。白話說，就是某個 agent 可以把壓縮過的內部狀態交給另一個 agent，而不需要把整段推理全部寫成文字。\u003C\u002Fp>\u003Cp>這個設計的重點在於「協作資訊」不再完全依賴自然語言。自然語言適合人看，但不一定適合機器之間高頻交換。RecursiveMAS 想保留協作中的結構資訊，同時減少文字搬運的開銷。對多輪推理、長鏈協作來說，這種差異可能很大。\u003C\u002Fp>\u003Cp>訓練方式也和一般多代理 pipeline 不太一樣。作者提出一個 inner-outer loop le\u003Ca href=\"\u002Fnews\u002Fllm-wiki-karpathy-knowledge-base-app-zh\">ar\u003C\u002Fa>ning algorithm，做的是 iterative whole-system co-optimization。這表示模型不是只各自訓練單一 agent，而是把整個遞迴協作流程一起優化，讓梯度能跨越多個 recursion rounds 做 credit assignment。\u003C\u002Fp>\u003Cp>這一點對實作很重要。很多多代理系統難在「到底誰貢獻了結果」。如果每個 agent 都只是各說各話，事後很難知道哪一步有用、哪一步只是增加噪音。RecursiveMAS 的思路，是把整個協作 loop 變成可訓練的單一過程，讓系統學會怎麼在每一輪遞迴中修正自己。\u003C\u002Fp>\u003Ch2>論文實際證明了什麼\u003C\u002Fh2>\u003Cp>從摘要來看，作者有做理論分析，也有做實驗。理論部分涵蓋 runtime complexity 和 learning dynamics。摘要的說法是，這些分析顯示 RecursiveMAS 比標準的文字型多代理系統更有效率，而且在遞迴訓練時能維持穩定的 gradients。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777442639593-aoi3.png\" alt=\"遞迴多代理系統可省 token\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>實驗部分，作者把 RecursiveMAS 套到四種代表性的 agent 協作模式上，並在九個 benchmark 上測試，範圍涵蓋數學、科學、醫療、搜尋與 code generation。可惜摘要沒有公開完整 benchmark 細節，也沒有列出每個測項的名稱與分數，所以目前只能看到總結性的結果。\u003C\u002Fp>\u003Cp>摘要給出的重點數字有三個。第一，和進階的 single-agent、multi-agent 以及 recursive computation baselines 相比，RecursiveMAS 的平均準確率提升 8.3%。第二，端到端推論速度提升 1.2× 到 2.4×。第三，token 使用量下降 34.6% 到 75.6%。\u003C\u002Fp>\u003Cp>這組結果的意義很直接。8.3% 的平均準確率提升，代表它不只是省 token，還真的有把效能做上去。更重要的是 token 節省幅度很大，最低也有三成多，最高接近四分之三。對需要多輪推理、多人協作、或高頻呼叫 agent 的系統來說，這會直接影響成本和延遲。\u003C\u002Fp>\u003Cul>\u003Cli>平均準確率提升：8.3%\u003C\u002Fli>\u003Cli>推論速度提升：1.2× 到 2.4×\u003C\u002Fli>\u003Cli>token 使用量下降：34.6% 到 75.6%\u003C\u002Fli>\u003Cli>測試範圍：9 個 benchmark\u003C\u002Fli>\u003Cli>涵蓋任務：數學、科學、醫療、搜尋、code generation\u003C\u002Fli>\u003Cli>協作模式：4 種代表性 agent pattern\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>對開發者代表什麼\u003C\u002Fh2>\u003Cp>如果你在做 agentic system，這篇論文最值得注意的，不只是「遞迴」這個名詞，而是它把協作層當成一個可以優化的核心計算。過去很多團隊會把多代理系統想成 prompt 的堆疊，重點放在角色設計、\u003Ca href=\"\u002Fnews\u002Fclaude-design-system-prompt-distilled-skill-zh\">提示詞\u003C\u002Fa>和訊息格式。RecursiveMAS 的觀點比較像：協作本身就是模型的一部分，應該用訓練和結構來一起解。\u003C\u002Fp>\u003Cp>這會帶來幾個實務上的吸引力。首先，token 降低通常意味著成本下降，也可能帶來更低延遲。其次，latent state transfer 有機會保留更多中間結構，不必把每一步都展開成長篇文字。第三，whole-system co-optimization 讓你有機會調的是「整個協作流程」，而不是只調單一 agent 的表現。\u003C\u002Fp>\u003Cp>對做 orchestration 的團隊來說，這也暗示一種新的介面想像。未來的 agent bus 不一定只傳訊息，也可能傳遞學習過的內部狀態。當然，這種設計是否適合所有場景，還要看更完整的實作與評估，但方向已經很清楚：多代理協作可以不只是文字接龍。\u003C\u002Fp>\u003Ch2>這篇摘要沒說完的事\u003C\u002Fh2>\u003Cp>雖然摘要很有說服力，但它也留下不少空白。首先，沒有完整 benchmark 名單，所以我們不知道九個測試各自是\u003Ca href=\"\u002Fnews\u002Fwhy-gpt-55-is-not-the-victory-lap-openai-wants-you-to-believ-zh\">什麼\u003C\u002Fa>，也看不到每個任務的細節表現。其次，摘要沒有交代模型大小、訓練成本、資料配置，這些都會影響結果能不能複製。\u003C\u002Fp>\u003Cp>另外，latent space 協作雖然更省 token，但也可能更難觀察。文字型 agent trace 很好 debug，開發者可以直接看每輪說了什麼、哪裡出錯。若協作過程更多藏在內部狀態裡，效率可能上升，但可解釋性和除錯難度也可能一起提高。摘要沒有處理這個問題。\u003C\u002Fp>\u003Cp>還有一個實際問題是泛化。這篇論文測了數學、科學、醫療、搜尋與 code generation，範圍不算窄，但摘要沒有說它在更長鏈的 planning、工具使用，或更吵雜的真實工作流裡表現如何。這些場景往往才是多代理系統最容易卡住的地方。\u003C\u002Fp>\u003Cp>即便如此，這篇工作的訊號還是很明確：它把多代理系統的效能瓶頸，從「每個 agent 能不能說得好」推進到「整個協作機制能不能更有效率」。如果完整論文能支撐摘要宣稱的結果，那 RecursiveMAS 可能代表一條很實際的路線——用更少的文字，換更快的推論和更好的整體表現。\u003C\u002Fp>\u003Cp>對台灣開發者來說，這類研究最有意思的地方，在於它不是只談模型能力，而是直接碰到部署成本。當 agent 系統越來越常進到產品、工具鏈和內部工作流，token、延遲、可訓練性都會變成硬指標。RecursiveMAS 提醒我們，下一波優化不一定只在更大的模型，也可能在更聰明的協作結構。\u003C\u002Fp>","RecursiveMAS 把多代理協作改成潛在空間的遞迴計算，主打更少 token、更快推論，摘要宣稱平均準確率提升 8.3%。","arxiv.org","https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.25917",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1777442638259-m4uc.png",[13,14,15,16,17],"multi-agent systems","recursive computation","latent space","token efficiency","RecursiveLink","zh",0,false,"2026-04-29T06:03:39.163322+00:00","2026-04-29T06:03:38.953+00:00","done","09eeb183-1bef-4e21-93a8-710003a1ac08","recursive-multi-agent-systems-token-efficiency-zh","research","7334b61a-3415-4eb8-81ee-7945f1051a7e","published","2026-04-29T09:00:09.452+00:00",[31,33,35,37,39],{"name":17,"slug":32},"recursivelink",{"name":16,"slug":34},"token-efficiency",{"name":14,"slug":36},"recursive-computation",{"name":15,"slug":38},"latent-space",{"name":13,"slug":40},"multi-agent-systems",{"id":27,"slug":42,"title":43,"language":44},"recursive-multi-agent-systems-token-efficiency-en","Recursive Multi-Agent Systems Could Cut Token Use","en",[46,52,58,64,70,76],{"id":47,"slug":48,"title":49,"cover_image":50,"image_url":50,"created_at":51,"category":26},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":53,"slug":54,"title":55,"cover_image":56,"image_url":56,"created_at":57,"category":26},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":59,"slug":60,"title":61,"cover_image":62,"image_url":62,"created_at":63,"category":26},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":65,"slug":66,"title":67,"cover_image":68,"image_url":68,"created_at":69,"category":26},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":71,"slug":72,"title":73,"cover_image":74,"image_url":74,"created_at":75,"category":26},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":77,"slug":78,"title":79,"cover_image":80,"image_url":80,"created_at":81,"category":26},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[83,88,93,98,103,108,113,118,123,128],{"id":84,"slug":85,"title":86,"created_at":87},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":89,"slug":90,"title":91,"created_at":92},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":94,"slug":95,"title":96,"created_at":97},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":99,"slug":100,"title":101,"created_at":102},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":104,"slug":105,"title":106,"created_at":107},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":109,"slug":110,"title":111,"created_at":112},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":114,"slug":115,"title":116,"created_at":117},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":119,"slug":120,"title":121,"created_at":122},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":124,"slug":125,"title":126,"created_at":127},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":129,"slug":130,"title":131,"created_at":132},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]