[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-deepmind-bets-on-continuous-learning-ai-2026-zh":3,"tags-deepmind-bets-on-continuous-learning-ai-2026-zh":35,"related-lang-deepmind-bets-on-continuous-learning-ai-2026-zh":49,"related-posts-deepmind-bets-on-continuous-learning-ai-2026-zh":53,"series-research-f18dbadb-8c59-4723-84a4-6ad22746c77a":90},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":23,"translated_content":10,"views":24,"is_premium":25,"created_at":26,"updated_at":26,"cover_image":11,"published_at":27,"rewrite_status":28,"rewrite_error":10,"rewritten_from_id":29,"slug":30,"category":31,"related_article_id":32,"status":33,"google_indexed_at":34,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":25},"f18dbadb-8c59-4723-84a4-6ad22746c77a","DeepMind 押注 2026 連續學習 AI","\u003Cp>Google DeepMind 幫一個老題目訂了時間表。答案是 2026 年。講白了，就是他們認為 AI 可能在那時候，從「訓練完就先凍住」走到「上線後還能繼續學」。\u003C\u002Fp>\u003Cp>這件事很重要，因為現在多數 LLM 都有同一個毛病。訓練一停，知識大致就停。要更新，通常得等下一輪大規模訓練或後訓練流程。這種模式其實很笨，也很花錢。\u003C\u002Fp>\u003Cp>如果 DeepMind 的判斷沒偏太多，2026 年你看到的 AI，可能不只是會讀更多 Token。它會開始把新資料、新錯誤、新回饋，慢慢變成比較穩定的能力。說真的，這比單純把 context window 拉到 100 萬 Token 還有意思。\u003C\u002Fp>\u003Ch2>DeepMind 說的連續學習，到底是什麼\u003C\u002Fh2>\u003Cp>先把名詞講清楚。連續學習，continuous learning，指的是 AI 可以在運作過程中持續吸收新資訊，不用每次都從頭重訓。它要能記住有用的東西，也要能在任務變動時調整行為。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774519636453-nkqd.png\" alt=\"DeepMind 押注 2026 連續學習 AI\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這跟現在常見的做法差很多。現在的模型，多半靠定期重訓、RAG、外部資料庫、工具呼叫，或是人工整理後再做 fine-tuning。這些方法很有用，但本質上還是在模型外面補洞，不是模型自己穩定長出新能力。\u003C\u002Fp>\u003Cp>原始內容提到 Google 內部進展，還提到一個在 NeurIPS 2025 發表的「nested method」。但這裡要踩一下煞車。因為沒有論文標題，也沒有 benchmark 表格。沒有數字，就很難判斷實際進度。研究方向合理，不代表產品已經快做好。\u003C\u002Fp>\u003Cp>現在最大的技術難點，不是讓模型看更多文字。那個大家都在做。難的是模型能不能把新經驗轉成穩定技能，而且不把舊能力搞壞。這裡卡到的問題很多，像是 catastrophic forgetting、資料漂移、錯誤回饋累積，還有安全控管。\u003C\u002Fp>\u003Cul>\u003Cli>現在前沿模型多半還是靠週期性重訓，不是即時、可持續的學習。\u003C\u002Fli>\u003Cli>更大的 context window，不等於模型真的更新了內部知識。\u003C\u002Fli>\u003Cli>連續學習要處理遺忘舊能力的風險。\u003C\u002Fli>\u003Cli>它也得處理新資料品質不穩的問題。\u003C\u002Fli>\u003Cli>如果這些問題壓得住，AI agent 在長週期寫程式和研究任務會更實用。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>所以，DeepMind 押 2026，不是因為模型突然變聰明。重點是工程系統有沒有可能把「學習」這件事，從離線流程搬到線上環境。你可能會想問，這是不是只是換個說法包裝記憶系統？我覺得不完全是。記憶是記住，連續學習是記住後還能穩定改善表現。兩者差很大。\u003C\u002Fp>\u003Ch2>為什麼大家一直提 2026\u003C\u002Fh2>\u003Cp>2026 這個年份不是憑空掉下來。近兩年，大型 AI 實驗室一直在丟短時間表。尤其在寫程式、自動研究、agent workflow 這幾塊，大家都覺得進展會很快。快到有點讓人懷疑是不是又在先喊再補貨。\u003C\u002Fp>\u003Cp>原文也提到 Anthropic 執行長 Dario Amodei。這個人對 AI 進度一向講得很直接。他多次公開表示，AI 在未來幾年可能會快速接手大量知識工作。這種說法跟 DeepMind 的 2026 判斷，在氣氛上是同一條線。\u003C\u002Fp>\u003Cp>有一段引述很有代表性。它講的是寫程式，不是嚴格定義下的連續學習。但兩者確實有關。因為如果模型已經能寫大部分程式，再加上更好的記憶、適應能力和自我修正，軟體工作流程就會更自動化。\u003C\u002Fp>\u003Cblockquote>\u003Cp>“I think we will be there in three to six months, where AI is writing 90% of the code. And then in 12 months, we may be in a world where AI is writing essentially all of the code.” — Dario Amodei, CEO of Anthropic, at the World Economic Forum in Davos, January 2025\u003C\u002Fp>\u003C\u002Fblockquote>\u003Cp>但我得潑個冷水。AI 寫出 90% 的程式碼，跟 AI 能從每次 bug、每次部署失敗、每次 code review 裡穩定學到東西，完全不是同一級難度。前者比較像輸出能力。後者牽涉到長期穩定性、品質控制、權限邊界，還有很多麻煩的工程細節。\u003C\u002Fp>\u003Cp>講白了，demo 很容易看起來很猛。真的放進公司內部 repo，讓它連續 6 個月自己學，還不能把系統弄爛，這才是考試。2026 若真的有進展，我猜也會先出現在受控環境，不會一開始就全面開放。\u003C\u002Fp>\u003Ch2>跟現在的 AI 系統比，差在哪裡\u003C\u002Fh2>\u003Cp>要看懂這件事，先別被大字報帶走。現在主流 AI 產品的進步方式，主要還是幾種組合。更大的基礎模型、更長的 context、更好的檢索、更強的工具使用，再加上後訓練和人類回饋。這些都有效，但還不是「持續自己學」。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774519655457-pr4g.png\" alt=\"DeepMind 押注 2026 連續學習 AI\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>拿 context window 來說，Google 在 2024 年談過 Gemini 1.5 Pro 可支援最高 100 萬 Token，部分情境還往 200 萬 Token 走。這數字很大，對長文件分析、多檔案程式碼理解都有幫助。但你一次塞 100 萬 Token 給模型，不代表它下次就真的記得。\u003C\u002Fp>\u003Cp>Claude 3.5 Sonnet 在開發者圈也很有存在感。它在程式任務、工具整合、互動品質上都不錯。可它主要還是靠 session context、外部工具和工作流設計來維持表現。模型權重本身不會因為你今天糾正它 10 次，明天就自然變得更懂你的系統。\u003C\u002Fp>\u003Cp>OpenAI、Anthropic、Google 都在做 reinforcement learning、post-training、tool use、memory 機制。可到目前為止，沒有哪一家公開提供一個通用型、可大規模商用、會從開放世界互動中穩定連續學習的模型。這個缺口，就是 DeepMind 想補的地方。\u003C\u002Fp>\u003Cul>\u003Cli>Gemini 1.5 Pro：2024 年公布最高 100 萬 Token，部分情境談到 200 萬 Token。\u003C\u002Fli>\u003Cli>Claude 3.5 Sonnet：程式能力進步明顯，但仍依賴 session 與工具鏈。\u003C\u002Fli>\u003Cli>OpenAI、Anthropic、Google：都有後訓練與工具整合，還沒有公開通用連續學習模型。\u003C\u002Fli>\u003Cli>SWE-bench 等基準進步很快，但 benchmark 分數不等於能維護真實產品 6 個月。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這裡還有一個常被混淆的點。很多人看到 AI 在 benchmark 上衝分，就直接推論「工程師快沒了」。我覺得這種跳法太粗暴。軟體工作不是只有吐程式碼。還有需求釐清、架構取捨、資安審查、跨部門溝通、事故處理，還有凌晨 2 點被 call 起來背鍋。\u003C\u002Fp>\u003Cp>AI 會吃掉很多 routine implementation。這點我相信。而且速度可能比很多公司預期更快。但要說「人類程式設計師」整類工作會被整包替換，這就誇張了。至少在 2030 前，我看比較像角色重組，不是職位直接蒸發。\u003C\u002Fp>\u003Ch2>真正有意思的，其實是科研和自動化實驗室\u003C\u002Fh2>\u003Cp>如果你只把這件事看成寫程式工具升級，那有點可惜。連續學習更有殺傷力的地方，我覺得在科研。因為研究工作本來就很像一個長週期回饋系統。你讀論文、提假設、做實驗、失敗、修正，再試一次。這流程很適合讓 AI 累積經驗。\u003C\u002Fp>\u003Cp>想像一個研究助理型 AI。它可以連續讀新論文，記住某個實驗室過去 8 個月試過哪些條件，知道哪些試劑組合老是失敗，也能根據儀器輸出調整下一輪實驗設計。這時候，記憶不是附加功能，而是核心能力。\u003C\u002Fp>\u003Cp>原文提到一個更遠的說法，像是到 2050 年，AI 可能做出接近諾貝爾獎等級的科學成果。這種預測可以討論，但不能當成確定路線圖。科學發現不是單靠模式配對就能完成。很多時候，真正難的是定義問題、排除假象、確認因果，還有知道什麼結果不能信。\u003C\u002Fp>\u003Cp>不過，近一點的變化已經看得到。AI 已經在蛋白質設計、材料搜尋、文獻整理、實驗規劃這些領域開始幫忙。再加上機器人、自動化儀器、模擬系統，整個實驗流程會越來越像軟體 pipeline。人類研究員還在，但很多中間步驟會被 AI 接走。\u003C\u002Fp>\u003Cp>這裡最大的瓶頸不是算力，是信任。會連續學習的模型，如果放進實驗室，它每次更新都要可追蹤。每個結論都要能重現。每次改變策略，都得留下 audit trail。科學不是誰先生成 100 個假說就贏，重點是你要證明哪一個是真的。\u003C\u002Fp>\u003Ch2>產業脈絡：為什麼現在大家急著做這題\u003C\u002Fh2>\u003Cp>連續學習會突然變熱門，背後其實是成本和產品壓力。訓練一個大模型很貴。重訓一次，燒掉的 GPU、電力、資料整理成本都很驚人。如果模型能在上線後持續吸收高品質回饋，理論上能減少部分重訓頻率，或至少讓更新更細緻。\u003C\u002Fp>\u003Cp>另一個原因是企業客戶的需求變了。公司不想要一個只會聊天的 AI。公司要的是懂自己內部資料、懂流程、懂規則，而且下個月比這個月更好用的系統。你今天教它 30 次，明天還要再教一次，這種產品很難長期收高價。\u003C\u002Fp>\u003Cp>還有 agent 熱潮。現在很多團隊都在做 coding agent、research agent、customer support agent。問題是 agent 一旦要跑長任務，就會撞到記憶和適應能力的天花板。沒有連續學習，它就像每次上班都失憶一半。這種東西 demo 好看，進 production 常常翻車。\u003C\u002Fp>\u003Cp>所以你會看到，大家表面上在比模型誰更會答題，實際上都在補同一個洞。怎麼讓 AI 對真實世界變化有反應，又不至於越學越歪。這題很硬，也很現實。因為只要模型會自我更新，安全問題就直接升級。\u003C\u002Fp>\u003Ch2>2026 真正要看什麼\u003C\u002Fh2>\u003Cp>我對 2026 的看法比較保守。那一年很可能看到「局部可用」的連續學習系統，而不是全面成熟。先出現的場景，八成是高價值、資料密集、回饋明確、權限可控的環境。像公司內部程式碼庫、企業知識助理、研究工作流，這些都很合理。\u003C\u002Fp>\u003Cp>如果 DeepMind 或其他實驗室真的端出東西，別先看宣傳片。先看四個問題。第一，它能不能把改進保留 3 到 6 個月。第二，它能不能安全吸收新資料。第三，它有沒有明顯 catastrophic forgetting。第四，這些改進有沒有出現在真實 production 指標，不只是漂亮 benchmark。\u003C\u002Fp>\u003Cp>對台灣開發者來說，最實際的做法很簡單。現在就開始把工作流資料化。把 bug、修正紀錄、code review 意見、部署失敗原因整理乾淨。因為一旦連續學習 agent 真的能用，先受益的不是喊最大聲的人，而是資料最完整、流程最標準化的團隊。\u003C\u002Fp>\u003Cp>最後給一個具體預測。2026 年底前，我覺得我們會看到至少 1 到 2 種商用系統，在受控環境中做到「持續學習且 90 天內可驗證提升」。範圍不會很廣，但已經足以改變軟體團隊和研究團隊的工具選擇。到時候你該問的不是 AI 會不會學，而是你的系統，有沒有準備好讓它學。\u003C\u002Fp>","Google DeepMind 認為 2026 年，AI 可能從定期重訓走向連續學習。重點不在更長的 Token 視窗，而在模型能否安全吸收新資料、保留能力，並真的用在寫程式、研究與自動化系統。","news.aibase.com","https:\u002F\u002Fnews.aibase.com\u002Fnews\u002F24204",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774519636453-nkqd.png",[13,14,15,16,17,18,19,20,21,22],"Google DeepMind","連續學習","人工智慧","LLM","Gemini","Claude","OpenAI","軟體開發","研究自動化","AI agent","zh",1,false,"2026-03-26T08:16:02.367355+00:00","2026-03-26T10:07:35.91+00:00","done","26071038-e0b7-4072-af12-a39d7e5e3f69","deepmind-bets-on-continuous-learning-ai-2026-zh","research","1e430f5b-88ba-4469-bcb5-a06dd17cf2af","published","2026-04-10T09:00:25.97+00:00",[36,37,39,40,43,44,46,48],{"name":20,"slug":20},{"name":19,"slug":38},"openai",{"name":15,"slug":15},{"name":41,"slug":42},"研究整理","-",{"name":14,"slug":14},{"name":16,"slug":45},"llm",{"name":18,"slug":47},"claude",{"name":21,"slug":21},{"id":32,"slug":50,"title":51,"language":52},"ai-continuous-learning-2026-en","AI's Leap to Continuous Learning by 2026","en",[54,60,66,72,78,84],{"id":55,"slug":56,"title":57,"cover_image":58,"image_url":58,"created_at":59,"category":31},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":61,"slug":62,"title":63,"cover_image":64,"image_url":64,"created_at":65,"category":31},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":67,"slug":68,"title":69,"cover_image":70,"image_url":70,"created_at":71,"category":31},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":73,"slug":74,"title":75,"cover_image":76,"image_url":76,"created_at":77,"category":31},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":79,"slug":80,"title":81,"cover_image":82,"image_url":82,"created_at":83,"category":31},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":85,"slug":86,"title":87,"cover_image":88,"image_url":88,"created_at":89,"category":31},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[91,92,97,102,107,112,117,122,127,132],{"id":4,"slug":30,"title":5,"created_at":26},{"id":93,"slug":94,"title":95,"created_at":96},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":98,"slug":99,"title":100,"created_at":101},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":103,"slug":104,"title":105,"created_at":106},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":108,"slug":109,"title":110,"created_at":111},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":113,"slug":114,"title":115,"created_at":116},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":118,"slug":119,"title":120,"created_at":121},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":123,"slug":124,"title":125,"created_at":126},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":128,"slug":129,"title":130,"created_at":131},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":133,"slug":134,"title":135,"created_at":136},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]