Soderbergh 用 AI 補 John Lennon 紀錄片
Soderbergh 用 Meta 的生成式 AI 補 John Lennon 紀錄片缺口,約 10% 影像來自 AI,這部片也準備在 Cannes 首映。

Steven Soderbergh 用 Meta 的生成式 AI 補 John Lennon 紀錄片缺口,約 10% 影像來自 AI。
Soderbergh 這次不是在玩 AI 炫技。講白了,他是在補一個很實際的洞:只有音訊,沒有畫面。這部片叫 John Lennon: The Last Interview,預計這個月在 Cannes 首映。
他說,整部片大約有 10% 會用 AI 生成影像。合作方是 Meta。這不是單純的 demo。它更像一次真實工作流測試。
| 項目 | 數字 | 意義 |
|---|---|---|
| AI 影像比例 | 10% | 只補缺口,不是整片都靠 AI |
| 首映時間 | 本月 | 會先在 Cannes 接受第一輪檢驗 |
| 素材型態 | Audio-only interview | 原始素材沒有對應畫面 |
| 合作方 | Meta | 把生成式影片工具丟進真實製作流程 |
這部片為什麼需要 AI
訂閱 AI 趨勢週報
每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。
不會寄垃圾信,隨時可取消。
核心問題很單純。Lennon 的最後一次訪談,只有聲音,沒有完整可用的影像。紀錄片要把這段內容做成可看的電影,就得找方法把聲音接成畫面。

Soderbergh 說,片中大部分還是靠檔案影像、靜態照片、動畫與舊片段。AI 只用在某些抽象段落。也就是說,AI 是補位,不是主角。
這種用法其實很關鍵。因為紀錄片最怕的,不是沒畫面,而是亂補畫面。你如果拿生成影像去假裝歷史影像,那就很容易踩線。這部片至少看起來有在守界線。
- 主要素材還是檔案影像與傳統剪輯。
- AI 只用在較抽象的段落。
- 目的是視覺補充,不是捏造證據。
- 影片將在 Cannes 首映。
Meta 為什麼會進來
Meta 不是單純贊助一下而已。Soderbergh 說,製片 Michael Sugar 提議去找 Meta,因為他們正在做影片生成工具。Meta 也想找真正的電影案子,來測工具到底能不能用。
這很像軟體圈常見的事。Demo 都很漂亮。真實場景才會出現問題。節奏、情緒、歷史質感,還有那些你根本補不滿的空白,才是最難的地方。
所以這案子的價值,不只在電影本身。它也是一個壓力測試。不是看模型會不會生畫面,而是看它能不能進入專業製作流程。
“They were open and wanted to see the film, so we showed them the film and they said, ‘Well, this is good timing because we really would like and need a filmmaker to stress test some of these tools that we’re working on.’” — Steven Soderbergh
Soderbergh 的說法也很直白。他沒有把 AI 講成神奇黑盒子。反而是說,這些畫面就像 VFX 或 CGI,觀眾看得出來。這種透明度很重要。
因為現在大家最怕的,就是 AI 被拿來裝真的。尤其是紀錄片。只要觀眾開始懷疑,你的信任成本就直接爆表。
跟其他 AI 影視用法比起來
目前影視圈用 AI,大概分幾種。第一種是做前期概念圖。第二種是做分鏡或預視覺化。第三種是修補背景、聲音或臨時素材。最敏感的,當然是重建臉孔和聲音。

這次比較保守。它沒有拿 AI 去假扮 Lennon 本人,也沒有把生成畫面包裝成真實檔案。它只是把缺少的視覺段落補起來。這個差別很大。
如果你是開發者,你應該會懂。工具本身不是問題。問題是怎麼接到工作流裡。是拿來輔助,還是拿來偷懶。這兩件事差很多。
- Black Bag、Erin Brockovich 都是 Soderbergh 的代表作。
- Ocean’s Eleven 系列也出自他手。
- 這次 AI 使用約占整片 10%。
- 用途是補缺口,不是重寫歷史。
他還提到,自己問過 Sean Ono Lennon,Lennon 會怎麼看這件事。Sean 的回答是,父親應該會想碰新科技。這答案不意外,但也合理。Lennon 本來就是那種會跟時代硬碰硬的人。
所以這案子真正有意思的地方,是它把「可不可以用 AI」變成「怎麼用才不會失真」。這個問題,接下來每個影視團隊都會碰到。
數據、限制和產業對照
如果把這案子拆開看,它其實很克制。10% 的 AI 影像比例,代表它不是全面替代人工流程。這點很重要,因為現在很多爭議都來自過度使用。
再看合作對象。Meta 想測的是工具。Soderbergh 想解的是敘事問題。兩邊的需求剛好對上,所以這案子才會成立。這比單純喊 AI 很強,實際多了。
跟其他公司比,這種做法也比較像 Adobe 或 Runway 的實務導向,而不是純技術展示。差別在於,電影人看的是成片效果,不是模型參數。這很現實,也很殘酷。
- 10%:AI 只占少數片段。
- 本月:Cannes 首映時間點很近。
- 1 個核心問題:原始素材只有聲音。
- 2 個角色:Meta 測工具,Soderbergh 測敘事。
這也解釋了為什麼紀錄片比劇情片更敏感。紀錄片的底線是可信。只要觀眾覺得你在偷渡虛構內容,整部片的價值就會掉很快。
所以這次最值得看的,不是 AI 畫面長什麼樣,而是觀眾能不能接受它的使用邏輯。這會直接影響後面一堆紀錄片怎麼做。
這件事放回產業脈絡怎麼看
AI 進影視圈不是新事。新的是,現在開始碰到更成熟的創作流程了。以前大家常拿 AI 做概念展示。現在是直接進到正式作品,而且還是 Cannes 等級的場合。
這代表工具成熟度已經到一個程度。真正的門檻,從「能不能生」變成「能不能被剪進去」。這差很多。前者是模型問題,後者是製作問題。
對台灣開發者來說,這也有參考價值。很多團隊都在做生成式 AI,但最後卡住的不是模型,而是流程、授權、標示與責任歸屬。電影圈現在遇到的,就是這些老問題換了新外殼。
接下來要看什麼
我覺得 Cannes 的反應會很重要。不是看媒體怎麼寫,而是看觀眾會不會買單。只要大家覺得它是合理補位,這種做法就會被更多紀錄片學走。
但如果觀眾覺得它太像造假,反彈也會很快。那就會變成另一個警示案例。說白了,這部片是在幫整個產業試水溫。
我的判斷是,接下來半年,你會看到更多創作者開始講「AI 只補缺口」這種說法。問題不是 AI 能不能用,而是你敢不敢把使用邊界講清楚。