[IND] 7 分鐘閱讀OraCore 編輯部

OpenClaw 正在測試中國 AI 野心

OpenClaw 在中國快速擴散,但資料外洩、誤刪檔案與外掛風險,正逼著監管單位出手。這場測試不只看 AI 能不能做事,也看中國能不能管住它。

分享 LinkedIn
OpenClaw 正在測試中國 AI 野心

中國最近最紅的 AI 工具,名字聽起來很無害:OpenClaw。但它做的事一點都不無害。短短幾週,TencentMiniMax 等公司都開始包裝相關工具。中國國家數據管理局還說,日均 Token 用量,從 2025 年底的 100 兆,衝到本月的 140 兆。

這不是單純的熱潮。這是在測試中國的 AI 監管底線。OpenClaw 不是只會聊天。它能操控電腦、跑背景任務,還能代替使用者做事。講白了,它比 chatbot 更像一個會亂來的助理。

問題也很直接。權限給得越多,出事方式就越多。現在中國看到的,不只是 adoption。還有誤刪檔案、資料外洩、外掛惡意程式,還有監管單位開始補洞。

為什麼 OpenClaw 會這麼快爆紅

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

OpenClaw 是奧地利開發者 Peter Steinberger 做的開源 AI agent。它的核心賣點很簡單。它不只回答問題,還能點滑鼠、開程式、整理檔案、查股票,甚至處理社群帳號。這種能力,已經不是一般 chatbot 的範圍。

OpenClaw 正在測試中國 AI 野心

中國市場剛好很吃這一套。官方一直想把 AI 從文字生成,推到真正的工作流程。因為政策圈很清楚,光會寫文案不夠。能不能進入辦公室、工廠、醫療流程,才是重點。

中國政府甚至把 AI agent 的導入,列成產業目標。到 2027 年,醫療和製造等重點領域的企業滲透率,要拉到 70% 以上。這個數字很硬,也很現實。代表不是試玩,是要進流程。

還有一個因素很關鍵。中國使用者對 AI 的接受度,普遍比很多國家高。Stanford University 的 AI Index 一直有這個觀察。當使用者願意把桌面權限交出去,產品就更容易擴散。

  • OpenClaw 能直接控制電腦,不只是聊天。
  • 中國日均 Token 用量,三個月內從 100 兆升到 140 兆。
  • 官方目標是 2027 年前,重點產業滲透率超過 70%。
  • OpenClaw 相關工具,已經在多家中國科技公司擴散。

真正的反彈,來自實際損害

很多人一開始只是覺得方便。等到出事,才發現權限給太大。上海一位姓羅的顧問告訴 The Wire China,Tencent 的 QClaw,在他要求分類文件時,直接把幾十個檔案永久刪掉。那些檔案裡,有他替客戶寫的報告。

這種案例很麻煩。因為它不是模型答錯而已。它是模型真的動了你的資料。對一般使用者來說,這種風險比「幻覺」更痛。你不會想跟 AI 吵架,你只會想把被刪掉的檔案救回來。

還有些案例更麻煩。有人回報,AI agent 把個資、公司財務資料、IP 位址,暴露給陌生人。也有人發現,背景任務一直跑,帳單跟著暴衝。這種情況下,agent 不像工具,更像一個沒節制的電腦使用者。

Concordia AI 的兼職研究員 Gabriel Wagner 說得很直白:

“The very features that make OpenClaw so functional also make it potentially dangerous in many ways,” says Gabriel Wagner, a part-time researcher at Concordia AI.

這句話很到位。功能越強,風險越大。尤其 OpenClaw 依賴廣泛裝置權限,還有類似技能外掛的 extensions。Snyk 之前就掃過相關技能平台,結果很難看。抽樣的技能裡,13% 有重大安全問題,還包含惡意軟體。

  • CNCERT 提醒過操作錯誤與惡意外掛。
  • Snyk 在抽樣技能中,發現 13% 有重大安全缺陷。
  • 有使用者回報,簡單指令就把檔案永久刪掉。
  • 也有人遇到資料外洩與背景運算費用暴增。

中國想推廣,也想抓住控制權

中國政府的反應很快。週一,網信相關單位就針對使用者、企業、雲端供應商、AI 愛好者,發布最佳實務指引。裡面很明白地提到,高風險動作要有人類監督。翻成白話,就是 AI 可以做事,但不能自己拍板。

OpenClaw 正在測試中國 AI 野心

更直接的是,政府機關和國營企業員工,已經被禁止部署 OpenClaw。這個動作很有意思。北京想讓 AI agent 擴散到經濟各層,但不想先碰到敏感單位。先普及,再收緊,這是很典型的中國式節奏。

研究中國 AI 治理的 MATS Research fellow Kristy Loke 說,監管者從 ChatGPT 在 2022 年出現後,就一直在平衡創新與控制。OpenClaw 讓這個平衡更難。因為它不是只吐文字,而是真的開始動作。

Concordia AI 創辦人 Brian Tse 的說法更直接。中國核心策略是 AI 模型與應用的擴散。先把工具丟進金融、製造、服務業,再根據失敗案例補規則。這種做法很中國,也很務實。

現在已經有更正式的控制設計在討論。Wagner 說,中國可能會制定國家標準和產業標準,也會做 AI agent 的安全框架。其中一個想法,是替 agent 發 ID,方便出事時追到主人。

  • 中國已經發布使用者與企業的最佳實務指引。
  • 政府與國營企業員工,不能部署 OpenClaw。
  • 官方正在研擬 AI agent 的安全標準。
  • 有提案想替 agent 加上可追溯的 ID。

數字對比,才看得出差距

OpenClaw 在中國引發的現象,關鍵不只在熱度,而在速度。很多國家根本不公開這種規模的 AI 使用數據。中國願意講日均 Token,用量從 100 兆跳到 140 兆,代表 AI 已經從試點,走進日常工作流。

這也解釋了,為什麼政府願意先忍受混亂。只要 AI agent 真能提升製造、金融、辦公效率,政策圈就會覺得這些摩擦值得承受。但現在的問題是,摩擦不是發生在實驗室,而是發生在一般使用者身上。

阿里巴巴董事長 Joe Tsai 這週在北京提到一個例子。他說,有同事做了 4 個 AI agent,分別負責掃新聞、提煉論點、寫稿、編輯。這種「4 個虛擬員工」的說法,聽起來很省人力,也聽起來很像把風險拆成 4 份。

可以直接比一下:

  • 中國會公開日均 Token,用量;很多大市場不會。
  • 中國希望 2027 年重點產業滲透率超過 70%。
  • OpenClaw 需要更高系統權限;一般 chatbot 不需要。
  • agent 出錯,可能刪檔、外洩、亂花錢。

這就是分水嶺。chatbot 答錯,你最多翻白眼。agent 做錯,會直接執行。這也是為什麼現在的討論,不只是某個工具紅不紅,而是中國能不能把 AI 推進日常工作,同時不讓自己先被副作用打到。

這場測試,反映的是整個產業

我覺得 OpenClaw 不會很快退燒。原因很簡單。agentic AI 的經濟誘因太強,中國的產業政策也太偏向導入。企業會想試,政府也會想推。只差在,誰先踩到雷。

接下來比較可能看到的,不是全面封殺,而是更細的管制。像是權限分級、操作紀錄、外掛審核、重要動作要人工確認。這些規則一多,agent 就不會那麼自由,但也比較不會亂搞。

這波熱潮其實也提醒台灣開發者一件事。AI agent 不是單純把 LLM 接上 UI。真正麻煩的是權限、日誌、沙盒、插件來源,還有出事後怎麼追責。少一層,風險就多一層。

如果你問我,OpenClaw 在中國的意義是什麼?我會說,它不是一個產品新聞。它是一次壓力測試。接下來 6 到 12 個月,最值得看的是兩件事:一,監管會不會把 agent 納入正式標準;二,企業會不會把高風險動作先關掉。這兩件事會決定,OpenClaw 是工具,還是事故樣本。