為什麼 DeepMind 員工有理由為五角大廈 AI 走向工會化
DeepMind 員工支持工會化是對的,因為面對軍事用途與高風險部署,只有勞工權力能約束管理層,而不是空泛的倫理承諾。

DeepMind 員工支持工會化是對的,因為面對軍事用途與高風險部署,只有勞工權力能約束管理層,而不是空泛的倫理承諾。
DeepMind 的英國員工推動工會化,核心不是情緒表態,而是對軍事 AI 的實際風險做出理性回應。Google 與美國國防體系的合作,已經不是邊緣案例;它直接說明,當公司宣稱「負責任使用」時,員工為什麼不再願意只靠高層口頭保證。
關鍵問題在於,Google 早已撤回不開發軍事化 AI 的承諾,而最新的五角大廈合約對「不做國內大規模監控」與「不做自主武器」的限制也只是非約束性文字。換句話說,這些條款更像姿態,不是防線。若沒有可執行的勞工權利,管理層永遠可以在商業壓力下重新定義底線。
第一個論點:工會是唯一夠分量的制衡
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
第一個理由很直接:建造前沿 AI 的人,必須擁有能在危險用途成形前踩煞車的集體力量。AI 實驗室的決策速度快,管理層的速度更快,單一員工的異議很容易被流程吞沒。工會把分散的擔憂變成可談判的權力,讓工程師、研究員與產品人員能要求明確界線,而不是只在內部會議上表達不安。

Google 其實已經示範過員工壓力能改變軍事 AI 決策。2018 年,員工對 Project Maven 的反彈,最終迫使公司退出國防部無人機影像分析合約,並公開 AI 原則。這件事證明兩點:員工確實能影響軍事 AI;但若沒有制度化的組織力量,這種影響只會是一次性的抗議,新聞熱度一過就消散。
第二個論點:沒有勞工權利的倫理政策只是表演
第二個理由是,AI 倫理委員會與公開原則,如果沒有勞工權利支撐,最後往往只是公關包裝。Google 的歷史已經把這件事說得很清楚:先承諾不把 AI 用於武器,再在競爭壓力下改口。這就是企業倫理在市場中的典型命運,先宣布克制,再重新定義語言,最後照樣簽約。
DeepMind 員工提出的要求,其實非常具體:不要開發以傷害人為主要目的的技術、建立獨立倫理監督機制、以及讓個人有權拒絕道德上不可接受的專案。這些要求一點也不激進,反而是最低門檻。因為同一套模型既能支援科學研究,也能支援監控、目標鎖定與戰場決策;若員工不能拒絕,最棘手的工作就會被轉交給最沒有能力反抗的人。
反方可能怎麼說
最強的反對意見,是工會化可能把研究政治化,並拖慢醫療、科學或國安上有價值的工作。Google 也可以主張,自己需要足夠彈性去服務合法政府客戶,員工不該對每一個有爭議的部署擁有否決權。再者,不是所有國防相關專案都等於濫用,這點也不能一概而論。

這個反對意見有其合理性,因為它承認一件事:政府確實會購買 AI,而研究也不應被簡化成道德純度測驗。問題不在於能不能跟政府做生意,而在於當買家是軍事體系時,建造系統的人是否還有任何實質發言權。尤其當合約條款本身不具約束力,且外部壓力正朝著更少限制的方向推進時,單靠公司自律根本不足以提供可信的約束。工會不會禁止研究,它只是在最危險的用途上建立一個公司自己不會主動給出的制衡。
你能做什麼
如果你是 AI 工程師或研究員,不要把勞工組織和安全工作分開看。加入工會推動,要求具約束力的拒絕權,並把高風險部署審查納入真正懂系統的人。若你是 PM 或創辦人,現在就建立能抵抗國防客戶壓力的流程:明確升級路徑、可執行的用途限制、以及在高風險決策中保留員工代表。真正認真的「負責任 AI」,靠的不是標語,而是權力配置。