[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-retrieval-augmented-generation-explained-zh":3,"tags-retrieval-augmented-generation-explained-zh":36,"related-lang-retrieval-augmented-generation-explained-zh":45,"related-posts-retrieval-augmented-generation-explained-zh":49,"series-research-92b08177-95c6-4743-89a9-f0314e6359c9":86},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":20,"translated_content":10,"views":21,"is_premium":22,"created_at":23,"updated_at":23,"cover_image":11,"published_at":24,"rewrite_status":25,"rewrite_error":10,"rewritten_from_id":26,"slug":27,"category":28,"related_article_id":29,"status":30,"google_indexed_at":31,"x_posted_at":10,"tweet_text":10,"title_rewritten_at":10,"title_original":10,"key_takeaways":32,"topic_cluster_id":10,"embedding":10,"is_canonical_seed":22},"92b08177-95c6-4743-89a9-f0314e6359c9","RAG 是什麼？白話看懂","\u003Cp data-speakable=\"summary\">\u003Ca href=\"\u002Ftag\u002Frag\">RAG\u003C\u002Fa> 讓大型語言模型先查文件，再根據資料回答，能降低幻覺，也方便加上引用來源。\u003C\u002Fp>\u003Cp>說真的，這招很實用。\u003Ca href=\"\u002Ftag\u002Fllm\">LLM\u003C\u002Fa> 很會講，但也很會唬爛。你丟給它一個問題，它可能講得像真的，結果細節全錯。\u003C\u002Fp>\u003Cp>RAG，中文常叫檢索增強生成，就是把「先查資料」塞進回答流程。它不是讓模型變聰明，而是讓模型先看資料再開口。這對客服、內部知識庫、法務、醫療都很有用。\u003C\u002Fp>\u003Cp>這篇就用白話拆給你看。你會看到它怎麼運作、為\u003Ca href=\"\u002Fnews\u002Fwhy-claude-opus-4-7-is-right-for-copilot-now-zh\">什麼\u003C\u002Fa>大家愛用、又在哪些地方會翻車。\u003C\u002Fp>\u003Ctable>\u003Cthead>\u003Ctr>\u003Cth>項目\u003C\u002Fth>\u003Cth>數字\u003C\u002Fth>\u003Cth>意義\u003C\u002Fth>\u003C\u002Ftr>\u003C\u002Fthead>\u003Ctbody>\u003Ctr>\u003Ctd>RAG 相關論文\u003C\u002Ftd>\u003Ctd>2020\u003C\u002Ftd>\u003Ctd>這個做法在學術界正式成形。\u003C\u002Ftd>\u003C\u002Ftr>\u003Ctr>\u003Ctd>Google Bard 錯誤事件\u003C\u002Ftd>\u003Ctd>約 1000 億美元\u003C\u002Ftd>\u003Ctd>一次答錯，市場反應很兇。\u003C\u002Ftd>\u003C\u002Ftr>\u003Ctr>\u003Ctd>Retro 模型規模\u003C\u002Ftd>\u003Ctd>約 25 倍更小\u003C\u002Ftd>\u003Ctd>檢索式設計可省很多參數。\u003C\u002Ftd>\u003C\u002Ftr>\u003Ctr>\u003Ctd>資料形式\u003C\u002Ftd>\u003Ctd>Embeddings\u003C\u002Ftd>\u003Ctd>文字常先轉成向量再做搜尋。\u003C\u002Ftd>\u003C\u002Ftr>\u003C\u002Ftbody>\u003C\u002Ftable>\u003Ch2>RAG 為什麼會紅\u003C\u002Fh2>\u003Cp>LLM 的問題很直接。它不是資料庫。它記得訓練時看過的模式，卻不保證知道昨天更新的政策。你如果拿它來回答公司規章，錯一條就很麻煩。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778083864937-hhfs.png\" alt=\"RAG 是什麼？白話看懂\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>RAG 的解法很土，但很有效。先去文件、網站、PDF、資料庫找相關內容，再把找到的片段丟給模型生成答案。模型就不是憑空猜，而是照著材料寫。\u003C\u002Fp>\u003Cp>這也是為\u003Ca href=\"\u002Fnews\u002Fwhy-ai-leaders-are-changing-their-jobs-message-zh\">什麼\u003C\u002Fa>很多團隊先做 RAG，再想微調。因為 retrain 一次很貴，文件更新卻很快。你不會想為了改一份 FAQ，就重跑整個模型訓練流程。\u003C\u002Fp>\u003Cul>\u003Cli>降低對舊訓練資料的依賴。\u003C\u002Fli>\u003Cli>可把引用來源一起帶出來。\u003C\u002Fli>\u003Cli>不用每次改文件就重訓模型。\u003C\u002Fli>\u003Cli>可接 PDF、內網文件、網頁與資料庫。\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>RAG 的流程怎麼跑\u003C\u002Fh2>\u003Cp>講白了，RAG 就是兩段式。第一段是檢索。系統先把文件切成 chunk，轉成 embeddings，存進向量資料庫。第二段是生成。使用者問問題時，系統先找最相關的片段，再交給 LLM 回答。\u003C\u002Fp>\u003Cp>這裡每一步都可能出包。chunk 切太大，搜尋不準。切太小，脈絡會斷。retriever 找到的資料如果不夠準，模型就會拿錯材料做回答。\u003C\u002Fp>\u003Cp>所以很多產品不是只靠向量搜尋。它們會混合 sparse search、dense retrieval，還會加 reranking。因為真正上線時，最怕不是找不到，而是找錯。\u003C\u002Fp>\u003Cblockquote>“RAG is a way of improving LLM performance, in essence by blending the LLM process with a web search or other document look-up process to help LLMs stick to the facts.” — Ars Technica\u003C\u002Fblockquote>\u003Cp>Wikipedia 也提到，實務系統常加 query expansion、memory、rerank。這些不是裝飾，是補洞。因為純向量搜尋很常抓到「差不多」的段落，不一定是最有用的段落。\u003C\u002Fp>\u003Cp>你可以把 RAG 想成考試作弊版的開書考。模型不是背答案，而是先翻書，再寫出看起來合理的內容。差別在於，書翻錯了，答案還是會錯。\u003C\u002Fp>\u003Ch2>RAG 最適合哪些場景\u003C\u002Fh2>\u003Cp>如果資料會一直變，RAG 就很香。像客服中心、產品文件、法規查詢、公司內部知識庫，這些地方都需要最新內容。模型靠訓練記憶很難跟上。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778083857361-9xg4.png\" alt=\"RAG 是什麼？白話看懂\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>另一種適合的場景，是你需要交代來源。像法務、醫療、金融，使用者不只想要答案，還想看你根據哪份文件講的。這時候 citations 很重要，不然誰敢直接信。\u003C\u002Fp>\u003Cp>但別把它想太神。RAG 只能讓模型更接近來源，不代表它一定懂上下文。如果你餵進去的資料本身就亂，模型還是可能一本正經地講錯話。\u003C\u002Fp>\u003Cul>\u003Cli>企業知識助理。\u003C\u002Fli>\u003Cli>客服機器人。\u003C\u002Fli>\u003Cli>法規與合約查詢。\u003C\u002Fli>\u003Cli>醫療與研究摘要。\u003C\u002Fli>\u003Cli>電商商品與庫存問答。\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>RAG 也有不少坑\u003C\u002Fh2>\u003Cp>第一個坑是檢索錯。你找到了文件，不代表找到對的段落。第二個坑是生成亂解讀。模型看到一段文字，可能會把說明文當結論，然後直接寫歪。\u003C\u002Fp>\u003Cp>第三個坑是 prompt stuffing。很多系統把檢索結果塞到問題前面，希望模型優先看見。這招有用，但也很脆弱。順序、格式、截斷長度，都會影響答案品質。\u003C\u002Fp>\u003Cp>第四個坑是評估難。你很難只看一個準確率，就知道整條管線有沒有問題。因為檢索、排序、生成，三段都會影響結果。\u003C\u002Fp>\u003Cul>\u003Cli>檢索準，不代表答案準。\u003C\u002Fli>\u003Cli>引用有了，不代表內容對。\u003C\u002Fli>\u003Cli>chunk 切法會影響召回率。\u003C\u002Fli>\u003Cli>reranking 常常比模型本身更重要。\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>數字怎麼看這件事\u003C\u002Fh2>\u003Cp>Wikipedia 提到幾個很有感的數字。\u003Ca href=\"\u002Ftag\u002Fgoogle\">Google\u003C\u002Fa> Bard 曾因 JWST 錯誤回答，引發約 1000 億美元等級的市值波動。這種錯法很貴，因為大家對 AI 失誤的容忍度很低。\u003C\u002Fp>\u003Cp>另一邊，Retro 類型的設計顯示，檢索式架構可以用更小的模型做出接近的表現。文中提到的規模差距大約是 25 倍。這代表資料查詢和模型參數，不一定要硬拚。\u003C\u002Fp>\u003Cp>但有個重點。Retro 是從設計階段就把 retrieval 放進去。RAG 則是比較像後掛式方案。前者整合更深，後者更容易接到現有系統。\u003C\u002Fp>\u003Cul>\u003Cli>RAG 在 2020 年左右進入主流討論。\u003C\u002Fli>\u003Cli>Google Bard 錯答事件牽動約 1000 億美元市值。\u003C\u002Fli>\u003Cli>Retro 類架構可把模型做得小很多。\u003C\u002Fli>\u003Cli>RAG 比較適合快速接到既有產品。\u003C\u002Fli>\u003C\u002Ful>\u003Ch2>RAG 背後的產業脈絡\u003C\u002Fh2>\u003Cp>我覺得 RAG 會紅，不是因為它高深，而是因為它夠務實。企業不想每週重訓模型。企業想要的是：文件更新後，系統隔天就能查到。\u003C\u002Fp>\u003Cp>這也是為\u003Ca href=\"\u002Fnews\u002Fwhy-jensen-huang-is-wrong-about-ai-creating-jobs-zh\">什麼\u003C\u002Fa>向量資料庫、embedding \u003Ca href=\"\u002Ftag\u002Fapi\">API\u003C\u002Fa>、reranker 這幾年一起爆。它們不是單獨在賣產品，而是在補 LLM 的缺口。你可以把它看成 AI 應用的基礎設施。\u003C\u002Fp>\u003Cp>早期大家很愛講模型大小。現在很多團隊更在意資料管線。因為真正在意答案的人，不會問你模型有幾億參數，只會問你答得對不對，有沒有來源。\u003C\u002Fp>\u003Cp>如果你要做一個真的能上線的 AI 助理，RAG 幾乎是基本功。沒有它，你很容易做出一個很會聊天、但一查就破功的系統。\u003C\u002Fp>\u003Ch2>接下來怎麼做\u003C\u002Fh2>\u003Cp>如果你正在評估 RAG，先別急著看 demo。先看它抓什麼資料，chunk 怎麼切，rerank 有沒有做，引用能不能回到原文。這些細節比模型名字更重要。\u003C\u002Fp>\u003Cp>我會建議你先拿一組真實問題測。找 20 到 50 題就夠。看檢索命中率、答案正確率、引用可追溯性，再看延遲。很多系統 demo 很漂亮，上線後就開始漏氣。\u003C\u002Fp>\u003Cp>說白了，RAG 不是萬靈丹。它是把 LLM 拉回資料現場的一種方法。做得好，它很穩；做不好，它只是把錯誤包裝得更像真的。\u003C\u002Fp>\u003Cp>如果你要下一步，我建議先從一個小知識庫開始。先把檢索、引用、評估三件事做好，再談更複雜的 \u003Ca href=\"\u002Ftag\u002Fagent\">agent\u003C\u002Fa>、工具調用和多輪記憶。\u003C\u002Fp>","RAG 讓 LLM 先查文件再回答，能減少幻覺、補上引用，也更適合企業知識庫與即時資料。","en.wikipedia.org","https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FRetrieval-augmented_generation",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778083864937-hhfs.png",[13,14,15,16,17,18,19],"RAG","檢索增強生成","LLM","向量資料庫","Embeddings","AI 助理","幻覺","zh",1,false,"2026-05-06T16:10:33.474941+00:00","2026-05-06T16:10:33.458+00:00","done","a48b062c-b8db-489b-8d9e-e88500eeea39","retrieval-augmented-generation-explained-zh","research","fcba2ffc-9687-40b6-b58c-a36dc8b4926b","published","2026-05-07T09:00:19.112+00:00",[33,34,35],"RAG 先查資料再回答，能降低 LLM 幻覺。","真正的品質差異，常出在檢索、chunk 與 rerank。","RAG 很適合企業知識庫、客服與需要引用的場景。",[37,38,40,42,44],{"name":14,"slug":14},{"name":13,"slug":39},"rag",{"name":15,"slug":41},"llm",{"name":43,"slug":43},"embeddings",{"name":16,"slug":16},{"id":29,"slug":46,"title":47,"language":48},"retrieval-augmented-generation-explained-en","Retrieval-Augmented Generation, Explained Simply","en",[50,56,62,68,74,80],{"id":51,"slug":52,"title":53,"cover_image":54,"image_url":54,"created_at":55,"category":28},"667b72b6-e821-4d68-80a1-e03340bc85f1","turboquant-seo-shift-small-sites-zh","TurboQuant 與小站 SEO 變化","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778840440690-kcw9.png","2026-05-15T10:20:27.319472+00:00",{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":28},"381fb6c6-6da7-4444-831f-8c5eed8d685c","turboquant-vllm-comparison-fp8-kv-cache-zh","TurboQuant 與 FP8 實測結果","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778839867551-4v9g.png","2026-05-15T10:10:36.034569+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":28},"c15f45ee-a548-4dbf-8152-91de159c1a11","llmbda-calculus-agent-safety-rules-zh","LLMbda 演算替 AI 代理人立安全規則","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778825503412-mlbf.png","2026-05-15T06:10:34.832664+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":28},"0c02225c-d6ff-44f8-bc92-884c8921c4a3","low-complexity-beamspace-denoiser-mmwave-mimo-zh","更簡單的毫米波波束域去噪器","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778814650361-xtc2.png","2026-05-15T03:10:30.06639+00:00",{"id":75,"slug":76,"title":77,"cover_image":78,"image_url":78,"created_at":79,"category":28},"9d27f967-62cc-433f-8cdb-9300937ade13","ai-benchmark-wins-cyber-scare-defenders-zh","為什麼 AI 基準賽在資安領域的勝利，應該讓防守方警醒","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778807450006-nofx.png","2026-05-15T01:10:29.379041+00:00",{"id":81,"slug":82,"title":83,"cover_image":84,"image_url":84,"created_at":85,"category":28},"bc402dc6-5da6-46fc-9d66-d09cb215f72b","why-linux-security-needs-patch-wave-mindset-zh","為什麼 Linux 安全需要「補丁浪潮」思維","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1778741449813-s2wn.png","2026-05-14T06:50:24.052583+00:00",[87,92,97,102,107,112,117,122,127,132],{"id":88,"slug":89,"title":90,"created_at":91},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":93,"slug":94,"title":95,"created_at":96},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":98,"slug":99,"title":100,"created_at":101},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":103,"slug":104,"title":105,"created_at":106},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":108,"slug":109,"title":110,"created_at":111},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":113,"slug":114,"title":115,"created_at":116},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":118,"slug":119,"title":120,"created_at":121},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":123,"slug":124,"title":125,"created_at":126},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":128,"slug":129,"title":130,"created_at":131},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":133,"slug":134,"title":135,"created_at":136},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]