[TOOLS] 7 分鐘閱讀OraCore 編輯部

agents-radar 每天抓 10 個 AI 訊號

agents-radar 用 GitHub Actions 每天 08:00 CST 抓 10 個 AI 來源,產出中英雙語摘要,還能透過 MCP 查詢歷史報告。

分享 LinkedIn
agents-radar 每天抓 10 個 AI 訊號

agents-radar 這專案很直白。每天早上 08:00 CST 跑一次。一次抓 10 個 AI 來源。然後把結果整理成中英雙語摘要。

我覺得這種工具很實用。因為你真的不想每天手動開十個分頁。它現在有 617 顆 stars,還有 70 個 forks。對一個偏工作流的工具來說,這數字算穩。

它用 TypeScript 寫。用 GitHub Actions 自動排程。還會產生日報、週報、月報。講白了,就是把 AI 世界的雜訊先收斂,再給你一份能讀的東西。

它到底抓了什麼

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

核心概念不複雜。把開發者常看的 AI 訊號集中起來。再做標準化。最後變成摘要。這比盯單一資訊流更實際。

agents-radar 每天抓 10 個 AI 訊號

它不是只看新聞。也不是只看論文。它把程式碼、研究、產品發布、社群討論混在一起。這種混法比較像真實的 AI 市場。因為真正有用的訊號,本來就分散在不同地方。

它目前涵蓋 GitHubHacker NewsArXivProduct HuntHugging FaceDev.toLobste.rs,還有 Anthropic 與 OpenAI 的文章更新。來源夠散,訊號才不會太偏。

  • GitHub 追蹤 17+ 個 AI repo 的 issue、PR 和 release。
  • Hacker News 用 6 組查詢,抓近 24 小時熱門故事。
  • ArXiv 抓 cs.AI、cs.CL、cs.LG,時間窗是 48 小時。
  • Hugging Face 追 30 個 trending models,依週 likes 排序。
  • Product Hunt 收昨天的 AI product。
  • Dev.to 和 Lobste.rs 補上開發者評論。

為什麼它的自動化設計很順

這專案最漂亮的地方,其實是流程。它不是把資料抓下來就丟著。它會用 GitHub Actions 定時執行,再把結果寫成 GitHub Issues 和 Markdown 檔。這代表你可以追版本,也可以回頭查。

很多 AI 摘要工具都有同一個毛病。看起來很炫。實際上沒歷史。今天看得到,明天就找不到。agents-radar 反過來做。它把每天的結果留在 repo 裡。這很像把觀測紀錄做成資料庫,而不是只做一個漂亮頁面。

它還有週報和月報。這點很重要。因為單日訊號很容易飄。你今天看到一個 CLI 工具爆紅,明天可能就沒人提。週報和月報能把短期噪音壓掉,讓趨勢更清楚。

“The best way to predict the future is to invent it.” — Alan Kay

這句話放在這裡很貼。因為 agents-radar 沒在等別人幫你整理世界。它自己抓資料。自己排程。自己出報告。整個架構很像一個可檢查的 AI 情報機器。

雙語輸出也很聰明。很多工具只做英文。對台灣開發者來說,讀起來常常卡一下。中英雙語一起出,讀者範圍就大很多。研究者、工程師、產品人都能直接用。

10 個來源怎麼影響訊號品質

來源越多,不代表越好。重點是來源要分層。agents-radar 把快訊號和慢訊號混在一起。這樣比較不會只看到社群吵什麼,卻漏掉研究和實作。

agents-radar 每天抓 10 個 AI 訊號

我把它想成四種層次。Hacker News 是速度。ArXiv 是研究深度。Hugging Face 是模型熱度。GitHub 是實作活動。再加上 Product Hunt、Dev.to、Lobste.rs,就能補上產品和社群觀點。

這種組合比單一 feed 更像真實世界。因為 AI 的變化不是只發生在一個地方。模型、框架、產品、論文,常常是不同時間點一起動。你如果只看一個平台,很容易看歪。

MCP 讓資料能直接被問

這專案另一個很有意思的點,是它有 Model Context Protocol。而且還有公開的 MCP server:agents-radar-mcp.duanyytop.workers.dev。這代表摘要不只拿來看,還能直接查。

它提供的工具很務實。像 list_reportsget_latestget_reportsearch。如果你用 Claude Desktop,或其他支援 MCP 的 client,就能直接問最新 AI CLI 工具,或查某個 repo 什麼時候被提到。

這裡的差別很大。一般 digest 是內容。MCP 化之後,它變成資料介面。你不必翻頁,也不用手動搜尋。你可以直接問。對團隊來說,這比較像內部知識庫,不像一般 newsletter。

它也支援自架。repo 裡的 mcp/ 目錄就能拿來部署。這對在意資料控制的人很重要。若你要放內網,或想接自己的流程,這條路就很實際。Wrangler 也能派上用場。

和其他 AI 情報工具比,差在哪

市面上很多工具都在做 AI monitoring。差別在於,它們常常只做一層。有人只抓新聞。有人只做社群。有人只整理產品發表。agents-radar 比較像把幾層拼起來。

如果拿常見做法來比,差異很明顯。單一新聞源很快,但容易偏。只看 HN 很熱鬧,但會被工程師圈的口味綁住。只看 ArXiv 很學術,但離產品落地常常有段距離。agents-radar 的做法,是把這些訊號放在同一個框架裡。

我覺得這種架構對台灣團隊很有參考價值。因為很多公司要的不是「最潮資訊」,而是「能判斷要不要跟進的資料」。這差很多。前者像刷社群。後者像做情報。

  • 單看 HN:快,但偏工程師視角。
  • 單看 ArXiv:深,但偏研究視角。
  • 單看 Product Hunt:新,但偏發布視角。
  • 單看 GitHub:能看實作,但看不到市場熱度。
  • agents-radar:把 4 種訊號放一起,比較好判斷真假熱度。

這種工具背後的產業脈絡

AI 工具變多之後,資訊管理反而變難。以前你追 3 個大平台就夠。現在模型、框架、代理、MCP、CLI 工具,每天都有人發。你如果沒有一套整理方法,很容易被訊號淹沒。

所以這類 repo 的價值,不只在內容。更在於方法。它示範了一種很實際的工作流:排程抓取、版本化保存、雙語輸出、再加上可查詢介面。這套做法比單純做一個 dashboard 更耐用。

從產業角度看,這也反映一個趨勢。大家不只想看 AI 新聞。大家想要可操作的資料。能搜尋。能比較。能回溯。能接進自己的 assistant。agents-radar 把這些需求一次包進去。

我會怎麼看這專案

老實說,這專案沒有花俏 UI。也沒有一堆炫技動畫。它就是很務實地做一件事:幫你把 AI 訊號收好。這種東西看起來不性感,但很有用。

如果你在做內部情報站、技術雷達、或產品研究流程,我會直接參考它的架構。尤其是 MCP 那段。因為一旦資料能被查詢,後面的應用就會變多。你可以接 Slack。可以接 Claude。也可以接自己的分析腳本。

我自己的預測很簡單。接下來會有更多團隊照這種模式做。不是因為它很潮。是因為它省時間。每天少開 10 個分頁,累積起來就是很實際的成本下降。你如果也在追 AI 訊號,問題不是要不要自動化。問題是你要抓哪些來源,才不會把自己餵進噪音裡。