[IND] 6 分鐘閱讀OraCore 編輯部

Soderbergh 用 AI 補 John Lennon 紀錄片

Soderbergh 用 Meta 的生成式 AI 補 John Lennon 紀錄片缺口,約 10% 影像來自 AI,這部片也準備在 Cannes 首映。

分享 LinkedIn
Soderbergh 用 AI 補 John Lennon 紀錄片

Steven Soderbergh 用 Meta生成式 AI 補 John Lennon 紀錄片缺口,約 10% 影像來自 AI。

Soderbergh 這次不是在玩 AI 炫技。講白了,他是在補一個很實際的洞:只有音訊,沒有畫面。這部片叫 John Lennon: The Last Interview,預計這個月在 Cannes 首映。

他說,整部片大約有 10% 會用 AI 生成影像。合作方是 Meta。這不是單純的 demo。它更像一次真實工作流測試。

項目數字意義
AI 影像比例10%只補缺口,不是整片都靠 AI
首映時間本月會先在 Cannes 接受第一輪檢驗
素材型態Audio-only interview原始素材沒有對應畫面
合作方Meta把生成式影片工具丟進真實製作流程

這部片為什麼需要 AI

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

核心問題很單純。Lennon 的最後一次訪談,只有聲音,沒有完整可用的影像。紀錄片要把這段內容做成可看的電影,就得找方法把聲音接成畫面。

Soderbergh 用 AI 補 John Lennon 紀錄片

Soderbergh 說,片中大部分還是靠檔案影像、靜態照片、動畫與舊片段。AI 只用在某些抽象段落。也就是說,AI 是補位,不是主角。

這種用法其實很關鍵。因為紀錄片最怕的,不是沒畫面,而是亂補畫面。你如果拿生成影像去假裝歷史影像,那就很容易踩線。這部片至少看起來有在守界線。

  • 主要素材還是檔案影像與傳統剪輯。
  • AI 只用在較抽象的段落。
  • 目的是視覺補充,不是捏造證據。
  • 影片將在 Cannes 首映。

Meta 為什麼會進來

Meta 不是單純贊助一下而已。Soderbergh 說,製片 Michael Sugar 提議去找 Meta,因為他們正在做影片生成工具。Meta 也想找真正的電影案子,來測工具到底能不能用。

這很像軟體圈常見的事。Demo 都很漂亮。真實場景才會出現問題。節奏、情緒、歷史質感,還有那些你根本補不滿的空白,才是最難的地方。

所以這案子的價值,不只在電影本身。它也是一個壓力測試。不是看模型會不會生畫面,而是看它能不能進入專業製作流程。

“They were open and wanted to see the film, so we showed them the film and they said, ‘Well, this is good timing because we really would like and need a filmmaker to stress test some of these tools that we’re working on.’” — Steven Soderbergh

Soderbergh 的說法也很直白。他沒有把 AI 講成神奇黑盒子。反而是說,這些畫面就像 VFX 或 CGI,觀眾看得出來。這種透明度很重要。

因為現在大家最怕的,就是 AI 被拿來裝真的。尤其是紀錄片。只要觀眾開始懷疑,你的信任成本就直接爆表。

跟其他 AI 影視用法比起來

目前影視圈用 AI,大概分幾種。第一種是做前期概念圖。第二種是做分鏡或預視覺化。第三種是修補背景、聲音或臨時素材。最敏感的,當然是重建臉孔和聲音。

Soderbergh 用 AI 補 John Lennon 紀錄片

這次比較保守。它沒有拿 AI 去假扮 Lennon 本人,也沒有把生成畫面包裝成真實檔案。它只是把缺少的視覺段落補起來。這個差別很大。

如果你是開發者,你應該會懂。工具本身不是問題。問題是怎麼接到工作流裡。是拿來輔助,還是拿來偷懶。這兩件事差很多。

他還提到,自己問過 Sean Ono Lennon,Lennon 會怎麼看這件事。Sean 的回答是,父親應該會想碰新科技。這答案不意外,但也合理。Lennon 本來就是那種會跟時代硬碰硬的人。

所以這案子真正有意思的地方,是它把「可不可以用 AI」變成「怎麼用才不會失真」。這個問題,接下來每個影視團隊都會碰到。

數據、限制和產業對照

如果把這案子拆開看,它其實很克制。10% 的 AI 影像比例,代表它不是全面替代人工流程。這點很重要,因為現在很多爭議都來自過度使用。

再看合作對象。Meta 想測的是工具。Soderbergh 想解的是敘事問題。兩邊的需求剛好對上,所以這案子才會成立。這比單純喊 AI 很強,實際多了。

跟其他公司比,這種做法也比較像 Adobe 或 Runway 的實務導向,而不是純技術展示。差別在於,電影人看的是成片效果,不是模型參數。這很現實,也很殘酷。

  • 10%:AI 只占少數片段。
  • 本月:Cannes 首映時間點很近。
  • 1 個核心問題:原始素材只有聲音。
  • 2 個角色:Meta 測工具,Soderbergh 測敘事。

這也解釋了為什麼紀錄片比劇情片更敏感。紀錄片的底線是可信。只要觀眾覺得你在偷渡虛構內容,整部片的價值就會掉很快。

所以這次最值得看的,不是 AI 畫面長什麼樣,而是觀眾能不能接受它的使用邏輯。這會直接影響後面一堆紀錄片怎麼做。

這件事放回產業脈絡怎麼看

AI 進影視圈不是新事。新的是,現在開始碰到更成熟的創作流程了。以前大家常拿 AI 做概念展示。現在是直接進到正式作品,而且還是 Cannes 等級的場合。

這代表工具成熟度已經到一個程度。真正的門檻,從「能不能生」變成「能不能被剪進去」。這差很多。前者是模型問題,後者是製作問題。

對台灣開發者來說,這也有參考價值。很多團隊都在做生成式 AI,但最後卡住的不是模型,而是流程、授權、標示與責任歸屬。電影圈現在遇到的,就是這些老問題換了新外殼。

接下來要看什麼

我覺得 Cannes 的反應會很重要。不是看媒體怎麼寫,而是看觀眾會不會買單。只要大家覺得它是合理補位,這種做法就會被更多紀錄片學走。

但如果觀眾覺得它太像造假,反彈也會很快。那就會變成另一個警示案例。說白了,這部片是在幫整個產業試水溫。

我的判斷是,接下來半年,你會看到更多創作者開始講「AI 只補缺口」這種說法。問題不是 AI 能不能用,而是你敢不敢把使用邊界講清楚。