返回首頁

標籤

長上下文

長上下文指模型能在同一次推理中保留更多文件、程式碼、對話與工具輸出,從 128K、256K 到百萬級 token 都是重點。它影響長文件分析、跨檔案編輯、代理式工作流與記憶壓縮策略,也直接牽動成本、延遲與幻覺風險。

8 篇文章

為什麼 Claude Code 應該用 DeepSeek v4 來處理 1M …
工具應用/5月4日

為什麼 Claude Code 應該用 DeepSeek v4 來處理 1M …

Claude Code 在長上下文程式工作上,應優先路由到 DeepSeek v4,因為 1M context 比品牌偏好更能決定實際產出。

GPT-5.4 知識測驗拿 97.6 分
模型發布/4月13日

GPT-5.4 知識測驗拿 97.6 分

GPT-5.4 在 BenchLM 知識與理解拿到 97.6 分,總榜暫列第 2,還有 1.05M token 長上下文。這篇拆解它適合哪些工作、和其他模型怎麼比。

Claude Code壓縮機制怎麼省上下文
工具應用/4月8日

Claude Code壓縮機制怎麼省上下文

Claude Code 用多層壓縮處理長對話上下文,避免 200K 到 1M token 被文件、Shell 輸出和編輯記錄吃光。

Grok 4.1 低調升級,卻很有料
模型發布/4月3日

Grok 4.1 低調升級,卻很有料

xAI 的 Grok 4.1 把幻覺率從 12.09% 降到 4.22%,還加入 Fast 與 Thinking 兩種模式,支援 256k context 與 2M token API,對開發者很實際。

Grok 4.20 怎麼看
模型發布/4月3日

Grok 4.20 怎麼看

xAI 的 Grok 4.20 主打 200 萬 token 長上下文、多代理推理與 API 價格。這篇拆解它的定位、規格、競品差異與開發者該注意的坑。

Claude、ChatGPT、Copilot、Gemini…
產業動態/4月3日

Claude、ChatGPT、Copilot、Gemini…

Claude 擅長長上下文與程式工作;ChatGPT、Copilot、Gemini 則靠分發、整合與工作流吃香。企業 2026 年該怎麼選,重點不是誰最強,而是誰最適合你的資料、流程與控管。

Gemini 3.1 Pro 數字看真實力
模型發布/4月3日

Gemini 3.1 Pro 數字看真實力

Gemini 3.1 Pro 以 77.1% ARC-AGI-2、94.3% GPQA Diamond、1M token 上下文登場,價格仍維持 Gemini 3。這次重點不是噱頭,而是長文檔、程式碼與 agent 工作流的實戰成本。

TurboQuant 解不了記憶體荒
技術研究/4月2日

TurboQuant 解不了記憶體荒

Google 的 TurboQuant 可把 KV-cache 記憶體用量降到 6 倍,但更長上下文、更多 agent 與更高吞吐,可能把 DRAM 和 NAND 需求繼續往上推。