[RSCH] 7 分鐘閱讀OraCore 編輯部

Tsallis loss 讓推理模型更快脫困

這篇論文用 Tsallis q-logarithm 搭出一條損失函數光譜,想解決推理模型在冷啟動時卡住的問題。它把 RLVR 和 latent trajectory 的 log-marginal-likelihood 串成可調參的連續體。

分享 LinkedIn
Tsallis loss 讓推理模型更快脫困

訓練推理模型時,最麻煩的不是模型不會學,而是它一開始幾乎學不到。當輸出層級的監督訊號太弱、正確答案機率又很低,訓練很容易卡在冷啟動。這篇論文 How Fast Should a Model Commit to Supervision? Training Reasoning Models on the Tsallis Loss Continuum,就是在處理這個痛點:模型在還很不會做題時,到底應該多快「認真」接受監督?

作者提出的不是單一新演算法,而是一條損失函數連續體。核心是 Tsallis q-logarithm loss family,讓兩個極端可以被放在同一個框架裡看:q=0 對應 reinforcement learning from verifiable rewards(RLVR),q=1 對應 latent trajectories 的 log-marginal-likelihood。重點不在於它們的方向不同,而在於它們對更新訊號的放大方式不同。這個差異,剛好就是冷啟動會不會卡死的關鍵。

這篇論文想解的痛點

訂閱 AI 趨勢週報

每週精選模型發布、工具應用與深度分析,直送信箱。不定期,不騷擾。

不會寄垃圾信,隨時可取消。

論文一開始就把問題講得很工程:如果模型在訓練初期幾乎不會答對,只有看最終輸出對不對的監督方式,常常會太慢,甚至完全推不動。對做推理模型後訓練的人來說,這不是理論上的瑕疵,而是實際會遇到的訓練停滯。

Tsallis loss 讓推理模型更快脫困

作者把這種情況稱為 cold-start problem。意思很直白:模型一開始成功率太低,RLVR 這類偏向只獎勵可驗證正解的方法,拿不到足夠強的訊號去把模型拉出谷底。訓練不是沒在跑,而是跑得太慢,慢到像卡住。

這篇論文的出發點很實用。它不是問「哪個方法比較漂亮」,而是問「監督到底要多早、多久、多強地介入」。這個問題對推理模型很重要,因為這類模型常常是在 pretraining 之後再做 post-training,訓練訊號又常常只看最終答案,早期如果完全沒中,整個流程就會很脆弱。

Tsallis loss 連續體怎麼運作

作者提出的 JQ 是一個 Tsallis q-logarithm 損失家族。它最關鍵的設計,是讓所有成員都保有相同的 per-example gradient direction。也就是說,梯度往哪裡走沒有變,變的是每個樣本被放大的程度。

這個放大不是單純調學習率,而是由一個 scalar amplification term,Pθ-q,去重新加權每個訓練實例。白話一點說,模型不是換了一條新方向,而是改變了每個例子對訓練的「話語權」。對冷啟動來說,這件事很重要,因為早期成功率低時,訊號本來就少,怎麼放大訊號就直接影響能不能脫困。

在這條連續體上,q=0 是 exploitation pole,對應 RLVR。q=1 則是 density-estimation pole,對應對 latent trajectories 做 log-marginal-likelihood。作者的觀點是,這兩端不是互斥的兩派,而是同一個框架下對「要多快做出承諾」的不同選擇。

中間的 q 值則代表折衷。q 越偏向 1,越像密度估計,逃離冷啟動的速度越快;但同時也可能更容易把噪聲一起放大。q 越偏向 0,則越接近 RLVR 的行為,訓練更偏向利用已知可驗證訊號,但在初期可能更容易卡住。

為什麼實作上不只是一個 loss

論文也處理了實作上的難題。Pθ 這個量是 intractable 的,不能直接算。所以作者推導出兩個 Monte Carlo estimator,而且是從兩種梯度分解方式來的。

Tsallis loss 讓推理模型更快脫困
  • Gradient-Amplified RL(GARL):從 prior 取樣,然後放大 RL 梯度。
  • Posterior-Attenuated Fine-Tuning(PAFT):用 importance resampling 從 posterior 取樣,再跑標準 supervised fine-tuning。

這兩個版本的共同點是,都有 O(q / (M Pθq+1)) 的 bias。差別則在於作者指出 GARL 的 variance 較低,而 PAFT 產生的梯度語意更一致、更像一般人熟悉的 fine-tuning。換句話說,一個偏效率,一個偏穩定。

這也反映了整篇論文的核心態度:不是追求一個萬用答案,而是承認不同訓練階段、不同資料集,可能需要不同的實作型態。對開發者來說,這比單純說「某法更好」更有參考價值。

論文實際證明了什麼

理論上,作者給出的主張很明確。根據 gradient flow 分析,exploitation pole 要逃離 cold start,需要 Ω(1 / p0) 的時間;density-estimation pole 則是 Θ(log(1 / p0))。這代表如果初始成功率 p0 很小,兩者的訓練時間尺度差很多。

白話說,模型一開始越不會做,越接近 RLVR 的方法就越可能慢到像沒動;越接近 density estimation 的方法,越有機會更快把模型拉出低谷。這正是 Tsallis loss 連續體存在的理由:它不是硬切到某一端,而是提供一個可調整的中間地帶。

實驗部分,作者在 FinQA、HotPotQA、MuSiQue 上做了測試。摘要公開的結果有限,但已經能看出幾個重點。首先,GARL 在 q=0.75 時,能明顯緩解 cold-start stalling,甚至在 GRPO 完全失敗的情況下仍能逃出冷啟動。

其次,在 warm-start 的情境裡,GARL 在低 q 時對 FinQA 表現最好,且訓練穩定。這說明當模型本來就有一點基礎時,偏 exploitation 的設定不一定吃虧,反而可能更有效率。

但結果不是全線勝利。HotPotQA 和 MuSiQue 上,GARL 會在訓練中變得不穩定。這時作者指出,PAFT 在 q=0.75 時能提供穩定梯度。特別是在 HotPotQA 上,摘要提到它拿到 47.9 maj@16,且比 GRPO 高出 +14.4。這是來源中唯一明確公開的數字;摘要沒有提供完整 benchmark 表,所以不能把它解讀成完整評測結論。

這樣的結果其實很有意思。它不是在證明某個 loss 天生全能,而是在證明同一個 loss family 可以透過不同 estimator,在不同情境下展現不同的優勢。GARL 比較像衝刺型,PAFT 比較像穩定型。

對開發者有什麼影響

如果你在做推理模型的後訓練,這篇論文最實際的提醒是:監督訊號要不要「更快進場」,不是抽象問題,而是會直接影響訓練能不能離開死區。尤其當你的訓練只看最終輸出、而且一開始正確率很低時,這個問題會被放大。

這也提供了一個更好用的思考方式。與其只問「我要用 RL 還是 SFT」,不如問「我要把監督放大到什麼程度」。Tsallis loss 連續體把這個問題變成可調參數,而不是非黑即白的選擇。

對實作來說,q 可以被看成一個真正的 tuning knob。偏低的 q 可能比較穩,也更像 RLVR;偏高的 q 可能更快脫困,但也更容易把噪聲、甚至不穩定一起放大。作者的結果暗示,中間值有機會是甜蜜點,但最佳值會跟你的資料、任務、以及主要失敗模式有關。

不過,這篇摘要也有明顯限制。它沒有公開完整 benchmark 細節,也沒有給出完整的 ablation、實作設定,或更細的 estimator 比較。除了 bias 公式、variance/stability 的定性差異,以及少數公開數字外,能確認的資訊有限。也就是說,它提供的是一個很有力的理論與方法框架,但還不是一份可以直接照抄的完整 recipe。

即便如此,這篇論文的價值仍然很高。它把一個常見但模糊的訓練痛點,轉成一個可分析、可調整的優化問題:到底要多快讓模型對監督「下決心」。對做 reasoning system 的團隊來說,這種框架比單純說 RL 不穩、SFT 太硬,更接近可以落地的工程語言。

如果你的模型卡在冷啟動,這篇工作的訊息很清楚:問題未必是監督太少,而可能是監督「放大得不對」。Tsallis loss 提供了一條中間路線,讓你可以在速度、噪聲、穩定性之間做更細的取捨。