[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-ml-papers-of-the-week-github-research-desk-zh":3,"tags-ml-papers-of-the-week-github-research-desk-zh":33,"related-lang-ml-papers-of-the-week-github-research-desk-zh":48,"related-posts-ml-papers-of-the-week-github-research-desk-zh":52,"series-research-f4a106cb-02a6-4508-8f39-9720a0a93cee":89},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":21,"translated_content":10,"views":22,"is_premium":23,"created_at":24,"updated_at":24,"cover_image":11,"published_at":25,"rewrite_status":26,"rewrite_error":10,"rewritten_from_id":27,"slug":28,"category":29,"related_article_id":30,"status":31,"google_indexed_at":32,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":10,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":23},"f4a106cb-02a6-4508-8f39-9720a0a93cee","每週 ML 論文清單，為何紅到 GitHub","\u003Cp>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Papers-of-the-Week\" target=\"_blank\" rel=\"noopener\">ML Papers of the Week\u003C\u002Fa> 在 GitHub 已經累積 12,265 顆星、768 次 fork。這個數字很實在，因為多數論文整理專案撐不到幾個月就停更，它卻一路把 2024 到 2025 的每週條目持續堆上去。\u003C\u002Fp>\u003Cp>這個專案來自 \u003Ca href=\"https:\u002F\u002Fdair.ai\u002F\" target=\"_blank\" rel=\"noopener\">DAIR.AI\u003C\u002Fa>，也同步把內容導到自家的 \u003Ca href=\"https:\u002F\u002Fnlpnews.substack.com\u002F\" target=\"_blank\" rel=\"noopener\">newsletter\u003C\u002Fa>。如果你平常在 \u003Ca href=\"https:\u002F\u002Farxiv.org\u002F\" target=\"_blank\" rel=\"noopener\">arXiv\u003C\u002Fa>、X、研究室部落格和 GitHub 之間來回跳，這種整理方式很有感，因為它直接幫你省掉找資料的時間。\u003C\u002Fp>\u003Cp>講白了，這個 repo 不是要取代所有研究來源。它做的是先幫你把入口收斂。對多數 ML 工程師來說，這比再多一個「總有一天會看完」的清單有用太多。\u003C\u002Fp>\u003Ch2>這個 repo 為什麼一直有人追\u003C\u002Fh2>\u003Cp>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002F\" target=\"_blank\" rel=\"noopener\">GitHub\u003C\u002Fa> 上的 ML 專案多到爆，但大多數不是在放程式碼，就是在堆靜態閱讀清單。ML Papers of the Week 比較像一個輕量編輯產品。它每週更新，而且結構很固定，你打開 README 就知道怎麼看。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774578775408-avrk.png\" alt=\"每週 ML 論文清單，為何紅到 GitHub\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這個差別很重要。工程師通常不缺連結，缺的是篩選。你可能收藏了 300 篇論文，但真正會回去看的，常常只有幾篇。用日期分週整理，至少讓你知道這禮拜該先掃哪裡。\u003C\u002Fp>\u003Cp>我覺得它受歡迎的原因很單純。門檻低，摩擦小，沒有註冊牆，也沒有花俏介面。你點進去、看一週、開幾篇 paper，就結束。對研究工作流來說，這種樸素反而很耐用。\u003C\u002Fp>\u003Cul>\u003Cli>12,265 顆星，代表社群興趣不是一天熱度。\u003C\u002Fli>\u003Cli>768 次 fork，表示很多人想把它接進自己的流程。\u003C\u002Fli>\u003Cli>內容橫跨 2024 與 2025，每週都有索引價值。\u003C\u002Fli>\u003Cli>主題涵蓋 AI、data science、deep learning、machine learning、NLP。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>還有一點常被忽略。GitHub repo 的存在形式很適合團隊知識管理。你可以直接把特定週次丟進內部文件、Slack 或讀書會，連結穩，搜尋也方便。\u003C\u002Fp>\u003Ch2>研究資訊太多時，整理比完整更重要\u003C\u002Fh2>\u003Cp>現在機器學習研究的問題，早就不是「沒有新東西」。問題是太多。就算你平常有追 \u003Ca href=\"https:\u002F\u002Fopenai.com\u002F\" target=\"_blank\" rel=\"noopener\">OpenAI\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fdeepmind.google\u002F\" target=\"_blank\" rel=\"noopener\">Google DeepMind\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002F\" target=\"_blank\" rel=\"noopener\">Anthropic\u003C\u002Fa>，你還是會漏掉很多大學實驗室和小團隊的好東西。\u003C\u002Fp>\u003Cp>每週整理的價值，在於它把問題縮小。你不用再問「這個月 ML 發生了什麼事」。你只要問自己，「這週有哪些 paper 值得我花 30 分鐘？」這種問題比較容易變成習慣，也比較不會拖延。\u003C\u002Fp>\u003Cp>DAIR.AI 在 README 裡寫過一句話，點得很準。它說，論文是追研究、學新點子、保持靈感的最好方式。這句話很直白，但沒有說錯。很多後來進入產品和框架的做法，一開始都是 paper 裡的一小段方法。\u003C\u002Fp>\u003Cblockquote>\u003Cp>“Papers are the best way to keep up with the latest research, learn new ideas, and stay inspired.”\u003C\u002Fp>\u003Cp>\u003Ccite>— \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Papers-of-the-Week\" target=\"_blank\" rel=\"noopener\">DAIR.AI, ML Papers of the Week README\u003C\u002Fa>\u003C\u002Fcite>\u003C\u002Fp>\u003C\u002Fblockquote>\u003Cp>連續看幾個月後，你會開始抓到整個領域的重心。像是多模態、推論效率、synthetic data、evals、agent scaffolding、post-training、retrieval-heavy pipeline。這些詞不是流行語而已，它們常常就是接下來半年工具鏈在補的洞。\u003C\u002Fp>\u003Cp>對不是做研究職的工程師來說，這種清單也很有用。很多實作技巧，像資料過濾、RAG 評估、長上下文處理、伺服器推論優化，通常都先出現在 paper，過一陣子才會進到供應商文件或開源套件。你早一點看到，判斷會快很多。\u003C\u002Fp>\u003Ch2>跟其他追論文方式比，它贏在哪\u003C\u002Fh2>\u003Cp>如果你現在的方法是「想到才去看 arXiv」，那這個 repo 幾乎一定比較好。它當然沒有 arXiv 完整，但完整有時候反而是負擔。整理的本質就是用覆蓋率換訊號密度。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774578793868-lxsg.png\" alt=\"每週 ML 論文清單，為何紅到 GitHub\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>拿 newsletter 來比，GitHub repo 有另一種實用性。它公開、可搜尋、可連結，而且適合回頭翻。newsletter 很方便進信箱，但你要在三個月後找某週的某篇 paper，體驗通常沒那麼好。\u003C\u002Fp>\u003Cp>如果跟社群平台相比，差異更明顯。社群平台速度快，但噪音也高。你得先穿過一堆熱評、轉推和情緒，才找得到原始論文。這個 repo 直接把原始連結擺在前面，省很多時間。\u003C\u002Fp>\u003Cul>\u003Cli>\u003Cstrong>GitHub repo：\u003C\u002Fstrong>12,265 stars、768 forks、公開存檔、按週瀏覽。\u003C\u002Fli>\u003Cli>\u003Cstrong>newsletter：\u003C\u002Fstrong>可透過 \u003Ca href=\"https:\u002F\u002Fsubstack.com\u002F\" target=\"_blank\" rel=\"noopener\">Substack\u003C\u002Fa> 收信，但長期索引能力較弱。\u003C\u002Fli>\u003Cli>\u003Cstrong>arXiv 直追：\u003C\u002Fstrong>最完整，但過濾成本全部落在讀者身上。\u003C\u002Fli>\u003Cli>\u003Cstrong>社群平台：\u003C\u002Fstrong>追熱門很快，但不利團隊知識沉澱。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>當然，整理一定帶有主觀口味。這點要先講清楚。任何每週清單，都比較容易放大社群正在討論的題目。你想追主流方向，這很好用。你想挖冷門但重要的長線研究，它就不一定夠。\u003C\u002Fp>\u003Cp>但說真的，對多數開發者來說，這個取捨完全合理。因為另一個選項通常不是「自己完整追研究」，而是根本沒系統。最後就是瀏覽器書籤越存越多，變成數位壁紙。\u003C\u002Fp>\u003Ch2>工程師現在就能怎麼用\u003C\u002Fh2>\u003Cp>最簡單的方法，是把它變成固定節奏。每週挑一個條目，先掃 abstract，再開兩篇 paper，最後記下一個可能影響你系統的點。可能是訓練技巧、評估方法、資料處理、RAG 設計，或伺服器成本優化。\u003C\u002Fp>\u003Cp>如果你在團隊裡，玩法更多。可以每週輪一個人選 paper，用 10 分鐘講重點。重點不是把數學推完，而是回答三件事：它在解什麼問題、方法有沒有可移植性、跟我們產品有沒有關係。久了你會發現，這種小儀式比臨時辦大型讀書會更撐得久。\u003C\u002Fp>\u003Cp>學生和轉職者也很適合用這個 repo。你可以把它當面試準備材料。挑幾篇跟 LLM、RAG、Agent、evals 有關的論文，整理成自己的觀察。面試時講得出方法脈絡，比只背工具名稱有內容得多。\u003C\u002Fp>\u003Cp>還有一個很實際的用法。你可以把每週清單丟給 LLM 幫你先做第一輪摘要，但不要全信。讓 GPT 或 Claude 幫你抓重點、列術語，再自己回頭看 abstract 和圖表。這樣能省時間，又不至於被二手解讀帶偏。\u003C\u002Fp>\u003Cp>如果你是做產品的人，也可以把這份清單當雷達。很多現在看起來只是學術嘗試的東西，半年後會變成 API 功能、開源框架模組，或雲端服務的新賣點。提早知道，不代表一定要跟，但至少你不會太晚發現。\u003C\u002Fp>\u003Ch2>這個 repo 反映了 ML 生態的哪個缺口\u003C\u002Fh2>\u003Cp>ML Papers of the Week 會紅，不只是因為大家愛看論文清單。更大的訊號是，ML 生態一直缺一層穩定的閱讀介面。廠商發公告，研究室發 paper，社群平台放大片段，但很少有地方能把這些東西整理成工程師真的看得下去的節奏。\u003C\u002Fp>\u003Cp>有趣的是，補上這個缺口的不是新 app，也不是昂貴 SaaS。就是一個普通 GitHub repo。原因很現實：大家信任 GitHub、會用 GitHub，也知道怎麼把 GitHub 連到自己的工作流。這種熟悉感，常常比再多功能都重要。\u003C\u002Fp>\u003Cp>我覺得接下來會有更多技術領域照這個模式走。像 AI agent、模型評測、推論系統、資料工程，都很適合做成按日期整理的公開索引。因為資訊更新太快，大家需要的是穩定節奏，不是更吵的通知。\u003C\u002Fp>\u003Ch2>我的看法與你可以做的下一步\u003C\u002Fh2>\u003Cp>如果你現在沒有固定讀論文的系統，先別想太複雜。直接把 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Papers-of-the-Week\" target=\"_blank\" rel=\"noopener\">ML Papers of the Week\u003C\u002Fa> 加進書籤，每週五固定看一個條目。連續做 6 週，你大概就知道自己到底需要更完整的研究追蹤，還是這種整理已經夠用。\u003C\u002Fp>\u003Cp>如果你已經有在追 arXiv，我反而建議把它當第二層過濾器。先看 repo 選題，再回去補原始論文和引用鏈。這樣比較不會在資訊海裡亂游。講白了，研究閱讀跟健身一樣，重點不是第一天衝多猛，而是你能不能每週真的做。\u003C\u002Fp>\u003Cp>最後給一個具體預測。到 2025 下半年，這類「公開、按週、可搜尋」的研究整理頁面會越來越常見，而且會慢慢變成團隊內部知識流程的一部分。你現在就可以先試一輪，看看它能不能把你那堆永遠看不完的分頁，收斂成真的讀得完的清單。\u003C\u002Fp>","DAIR.AI 的 ML Papers of the Week 在 GitHub 拿下 12,265 顆星。它做的事很單純：每週整理值得讀的機器學習論文，幫工程師少逛一堆來源，多花時間真的把論文看完。","github.com","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002FML-Papers-of-the-Week",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1774578775408-avrk.png",[13,14,15,16,17,18,19,20],"ML Papers of the Week","DAIR.AI","GitHub","機器學習論文","arXiv","LLM","人工智慧","研究整理","zh",1,false,"2026-03-27T01:11:39.284175+00:00","2026-03-27T02:33:14.219+00:00","done","eb7d652c-e8e0-4d98-a0fd-450d44f1af7e","ml-papers-of-the-week-github-research-desk-zh","research","8404bd7b-4c2f-4109-9ec4-baf29d88af2b","published","2026-04-10T09:00:25.577+00:00",[34,36,37,39,41,43,45,47],{"name":13,"slug":35},"ml-papers-of-the-week",{"name":19,"slug":19},{"name":20,"slug":38},"-",{"name":15,"slug":40},"github",{"name":18,"slug":42},"llm",{"name":17,"slug":44},"arxiv",{"name":14,"slug":46},"dair-ai",{"name":16,"slug":16},{"id":30,"slug":49,"title":50,"language":51},"ml-papers-of-the-week-github-research-desk-en","ML Papers of the Week Turns GitHub Into a Research Desk","en",[53,59,65,71,77,83],{"id":54,"slug":55,"title":56,"cover_image":57,"image_url":57,"created_at":58,"category":29},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":60,"slug":61,"title":62,"cover_image":63,"image_url":63,"created_at":64,"category":29},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":66,"slug":67,"title":68,"cover_image":69,"image_url":69,"created_at":70,"category":29},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":72,"slug":73,"title":74,"cover_image":75,"image_url":75,"created_at":76,"category":29},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":78,"slug":79,"title":80,"cover_image":81,"image_url":81,"created_at":82,"category":29},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":84,"slug":85,"title":86,"cover_image":87,"image_url":87,"created_at":88,"category":29},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[90,95,96,101,106,111,116,121,126,131],{"id":91,"slug":92,"title":93,"created_at":94},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":4,"slug":28,"title":5,"created_at":24},{"id":97,"slug":98,"title":99,"created_at":100},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":102,"slug":103,"title":104,"created_at":105},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":107,"slug":108,"title":109,"created_at":110},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":112,"slug":113,"title":114,"created_at":115},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":117,"slug":118,"title":119,"created_at":120},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":122,"slug":123,"title":124,"created_at":125},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":127,"slug":128,"title":129,"created_at":130},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":132,"slug":133,"title":134,"created_at":135},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]