Karpathy 的 LLM Wiki 三週變桌面應用
Karpathy 在四月發布的 LLM Wiki 概念只是一份 Gist 建議,三週後就有開發者推出完整的跨平臺應用。這個速度反映了代理人時代開源迭代的新節奏:架構理念快速循環成可用產品,知識庫從查詢驅動轉向編譯驅動。

四月初,Andrej Karpathy 在 GitHub Gist 上發布了一個簡單但深遠的想法:用 AI 將文檔集合漸進地編譯成一份自我維護的知識庫。不同於傳統 RAG 每次查詢都重新構建上下文,這套架構讓知識編譯一次,持續演化。Gist 貼出後迅速累積 5,000 多星。
真正有趣的事發生在三週後。開發者 Nash Su 將這份概念文件轉化為一個名叫 LLM Wiki 的完整跨平臺桌面應用,現已累積 4,400 星。v0.3.13 剛在四月底發布,搭載 dmg/rpm/deb 安裝程式和 Chrome 外掛。速度驚人。
從想法到執行的架構
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
LLM Wiki 實現了 Karpathy 素描的三層架構:原始文檔不可變存放在 raw/ 資料夾,LLM 生成的知識庫頁面保存在 wiki/ 資料夾,一份 CLAUDE.md 式的綱要檔案定義整個系統的結構和慣例。三個核心操作—— ingest(攝入新來源)、query(查詢並合成)、lint(維護和檢測矛盾)—— 讓知識庫隨時保持一致性和可追溯性。

但實裝遠不止於此。該應用引入了一個關鍵的兩階段攝入流程:先分析(LLM 提取實體、概念、潛在矛盾,尋找既有維基頁面的關聯),再生成(製作摘要頁、實體頁、概念頁,更新索引,標記需人工檢視的項目)。一份來源文件可以級聯更新 10 到 15 個維基頁面。搭配 SHA256 增量快取和三次重試機制,系統既快又韌性強。
知識圖譜的新玩法
最引人注目的創新是知識圖譜設計。系統用四維邊權重量化概念間的關聯:直接維基連結(×3.0 權重)、來源重疊(×4.0,兩頁引用同一文檔)、Adamic-Adar 共同鄰居(×1.5,稀有共享鄰居計重更高)、類型親和力(×1.0)。透過 Sigma.js 和 ForceAtlas2 佈局演算法視覺化,Louvain 社群偵測自動發現話題叢集。
圖譜衍生出兩類洞察:驚奇連結(跨叢集、跨類型的非預期邊)被標記為「認知突破的起點」;知識缺口(孤立頁面、稀疏連結的社群、連接 3+ 叢集的樞紐節點)各配一個「深度研究」按鈕,點擊即啟動 Tavily API 搜尋,合成結果再注入攝入管線。確認對話框防止無意觸發。
檢索層也突破傳統做法。文本分詞(中文用二元切分)、可選的向量 ANN(透過 LanceDB)、從搜尋種子開始的二跳圖遍歷,三者合力達成多階段檢索。使用者可調整上下文視窗(4K 到 1M token),分配比例為 60% 維基 / 20% 對話歷史 / 5% 索引 / 15% 系統提示。文檔報告顯示召回率從 58.2% 提升至 71.4%(啟用向量搜尋時)。
另一個細節:每個專案配一份 purpose.md 意圖檔案。LLM 在每次攝入和查詢時都讀取它,確保知識庫有方向感,不會淪為無向累積。刪除來源時系統也足夠聰慧:自動清理其摘要頁,移除共享頁面中的該來源引用(但保留共享實體本身),刪除索引項和斷連。
代理人時代的知識編譯
這個故事的核心不在單一功能,而在迭代速度和設計哲學的轉變。Karpathy 的想法在 Gist 上流傳——這是開源時代知識循環的新形式。一份建築草圖,共享給社群,由能幹的開發者在數週內具現化成可用產品。RAG 不是錯,但它從預設方案降級為備選方案。真正的前沿是把知識視為編譯後的製品,而非即時查詢目標。mem0 和 MemOS 為 Agent 解決了這個問題;LLM Wiki 為人類使用者解決了它。

使用者也能直接用 Obsidian 開啟生成的維基目錄——該應用完全相容 Obsidian Vault 格式(含 .obsidian/ 配置)。LLM Wiki 作編輯器,Obsidian 作檢視器,兩個工具各盡其能。從來不是 LLM 要取代人類工具,而是代理人時代的工具組合方式從「單一巨人應用」轉向「互操作的專用工具生態」。