[IND] 5 分鐘閱讀OraCore 編輯部

Google AI 搜尋捲入受害者資料外洩訴訟

集體訴訟指控 Google AI 搜尋曝光 Epstein 受害者敏感資料,還拒絕移除請求。這起案件把 AI 搜尋的隱私風險,直接推到檯面上。

分享 LinkedIn
Google AI 搜尋捲入受害者資料外洩訴訟

Google 的 AI 搜尋又出事了。這次不是答案寫錯,而是被指把 Jeffrey Epstein 受害者的敏感資料直接翻出來。原告說,Google 收到移除要求後,還是沒處理。

講白了,這已經不是單純的搜尋結果問題。當 AI 會摘要、會重寫、會把資料塞進第一屏,隱私風險就不再只是「有沒有被索引」。而是「會不會被重新包裝一次」。

這案子很值得台灣開發者看。因為它碰到的,不只是法律。還有產品設計、資料治理,跟演算法到底該不該碰敏感資訊。

訴訟到底在講什麼

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

這起集體訴訟,指向 Google 的 AI 搜尋工具。原告主張,系統把和 Epstein 案受害者有關的個資曝光了。內容還包含性侵受害者資訊,這就不是一般搜尋失誤了。

原告還說,他們有要求 Google 移除或封鎖那些資料。結果公司沒有照辦。這一點很關鍵。因為爭點不只是「網路上有沒有這些資料」。而是平台收到通知後,為什麼還讓 AI 繼續吐出來。

如果這些說法成立,問題就不只是搜尋排名。它會變成資料再散布。原本可能藏在角落的內容,被 AI 一句話整理出來,使用者一看就能複製、轉傳、截圖。

  • 這是集體訴訟,影響的不是一個人。
  • 爭議內容涉及性侵受害者資料。
  • 原告稱已要求移除,但 Google 沒處理。
  • 指控對象是 AI 搜尋,不是傳統搜尋而已。

Google 這幾年一直推 AI 搜尋。像 Google Search 的 AI 摘要功能,就是把網頁內容濃縮成直接答案。這種設計很方便,尤其查技術文件或產品規格時很省時間。

但同一套機制,碰到敏感資料就很麻煩。傳統搜尋至少還要點進去看。AI 摘要常常直接把答案塞到最上面。使用者一眼看到,風險就已經發生了。

為什麼 AI 搜尋特別危險

傳統搜尋引擎做的是索引和排序。AI 搜尋多了摘要和改寫。這表示系統不只是在找資料,還在決定哪些內容值得被重述。

問題就在這裡。原始頁面也許很難找到。也許早就被埋在搜尋結果後面。可是一旦 AI 把它整理成一段話,資訊就變得更乾淨,也更容易擴散。

對受害者來說,這種重述很傷。因為它不是單純讓資料存在。它是把資料重新推到眼前。尤其是姓名、案件關聯、創傷背景,這些內容本來就不該被輕易放大。

“With great power comes great responsibility.” — Stan Lee

這句話老掉牙,但放在這裡剛好。當搜尋產品能直接生成答案,平台就不能只說自己是中立工具。它已經在做選擇了。選擇要摘要什麼,也選擇要不要把敏感內容重講一次。

我覺得這也是 AI 搜尋最煩的地方。它看起來像搜尋,實際上更像編輯。只是這個編輯沒有編輯室,也沒有明確的責任邊界。

跟其他 AI 搜尋爭議比起來

Google 不是第一個碰到這種事的公司。只要系統會抓網頁、會生成答案,就可能把有害資訊再講一次。這在 OpenAI 的 ChatGPT、Perplexity,甚至其他 LLM 服務上,都看得到類似風險。

差別在規模。Google 每天處理的查詢量非常大。即使錯誤率很低,乘上流量後,影響的人數還是很可觀。AI 摘要一旦跑在這種流量上,問題就不會只是個案。

更麻煩的是,AI 答案會讓使用者覺得它比較可靠。因為它不是一串藍色連結,而是一段看起來完整的敘述。這種「像答案」的格式,會放大錯誤和隱私外洩。

  • OpenAI 一直被檢視幻覺問題。
  • Perplexity 也被關注引用與摘要方式。
  • Google Search 把 AI 摘要放進更多查詢場景。
  • 傳統搜尋多半要點進去看,AI 答案常常直接曝光。

這裡還有一個產品層面的差異。傳統搜尋是「找得到」。AI 搜尋是「講得出來」。前者比較像工具,後者比較像內容生產者。法律上怎麼切,後面一定會吵很久。

如果法院接受原告論點,重點就不是某頁資料是否公開,而是平台有沒有主動把它重新發佈。這種差別,對 AI 搜尋產品很傷。

這件事會逼 Google 做什麼

如果訴訟往前走,Google 很可能得加強敏感資料的處理。像是更快的移除流程、更嚴的過濾條件,或是針對受害者、未成年人、封存案件做特殊保護。

另一個做法,是把高風險查詢的 AI 摘要關掉。這不是理論題,而是很務實的產品選擇。當系統無法穩定避開敏感資訊時,少講一點,反而比較安全。

對開發者來說,這案子很像一記提醒。你做的不是單純搜尋框。只要有生成式 AI,你就在做內容選擇。你不一定想承認,但它就是有編輯責任。

我自己的看法很直白。AI 搜尋要進主流,隱私過濾不能只靠事後補洞。它得變成產品規格的一部分。就像 API 要限流,伺服器要做權限控管一樣,不能等出事才補。

產業脈絡其實早就有跡象

這類爭議不是突然冒出來。過去幾年,生成式 AI 一直在碰資料邊界。從訓練資料來源,到輸出內容是否該刪除,問題都很像:模型能不能講,不等於它該不該講。

對台灣團隊來說,這也不是遙遠新聞。很多公司現在都在做客服機器人、知識庫搜尋、內部文件問答。只要底層是 LLM,資料治理就會變成核心工程,不是法務附屬品。

如果你有做企業內部搜尋,這案子更該看。因為公開網頁都會出事,內部文件更不用說。權限、遮罩、刪除紀錄、稽核軌跡,這些都要先設好,不然 AI 一次吐錯,就很難收回來。

說真的,AI 搜尋現在最缺的,不是更會答。是更會閉嘴。尤其碰到姓名、案件、醫療、法律、未成年資料時,系統應該先停一下,而不是急著秀存在感。

接下來要盯什麼

接下來可以看兩件事。第一,法院會不會接受這種「AI 重新散布敏感資料」的主張。第二,Google 會不會把敏感查詢的摘要策略改掉。

如果你是產品或工程團隊,我會建議直接把敏感資料保護列進需求規格。不要只寫「提升準確率」。要寫清楚哪些類型不能摘要,哪些查詢要降級,哪些內容要直接拒答。

這件事最後不一定只影響 Google。它很可能會變成所有 AI 搜尋產品的共同題目。你做的每一次摘要,都是一次風險判斷。問題只在於,你有沒有先把規則寫好。