思考的幻覺: 以問題複雜度透視 LRM 優勢與限制

分類: 軟體 產業新聞   6/9/2025   編輯部


《思考的幻覺》

副標題: 以「問題複雜度」透視大型推理模型(LRM)的優勢與限制

作者: Parshin Shojaee 、Iman Mirzadeh 、Keivan Alizadeh、Maxwell Horton、Samy Bengio、Mehrdad Farajtabar(Apple)

參考: https://t.ly/UKjV5

摘要與數據速覽

大型推理模型(Large Reasoning Models, LRM)透過 Chain of Thought(CoT)與自我反思機制,在多項推理題上取得突破。然而,當題目複雜度超過某一臨界點,LRM 仍會「思考崩潰」。在作者自建的四款可控謎題中(河內塔、跳棋交換、渡河難題、積木世界),所有前沿 LRM——含 o3 mini、DeepSeek R1 及 Claude 3.7 Sonnet Thinking——都呈現以下共通曲線:

  • 正確率三段式
低複雜度*(河內塔 N 3,最短步 7):非思考版 LLM 可達 100 %,Thinking 版略低(因過度思考)。 中複雜度*(河內塔 N=4 7,步數 15 127):Thinking 版最高 85 %;非思考版約 45 %。 高複雜度*(河內塔 N 10、Blocks World 40 moves):所有模型正確率趨近 0;臨界點依模型略有差異(Claude 3.7 在 N 10,o3 mini 在 N 8)。
  • 思考 token 反轉:Thinking 版在複雜度升高初期會將思考長度由 ~5 k 逐步拉高到 ~18 k,但一旦接近臨界點,平均思考 token 反而降回 ~10 k,且仍遠低於 64 k 上限。
  • 第一個錯步統計:在河內塔 N=10 時,Claude 3.7 Thinking 的首個錯誤通常發生在 第 100 步左右,而同模型於渡河難題 N=3(11 步最佳解)卻常在 第 4 步就踩雷,顯示其「計劃一致性」隨題型劇烈波動。

---

一、引言

語言模型隨著規模擴張,逐漸加入「明示思考」以強化推理。當前最尖端的 LRM 透過 Chain of Thought 與自我檢查,在 MATH 500、AIME24 等基準上刷新分數,但這些基準易受資料洩漏與難度不均影響。作者因此轉向可逐級調整難度的「小世界」謎題,檢驗 LRM 的真正可擴展性。

---

二、研究設計

四款謎題皆可用「最短合法步數」作為複雜度刻度:

謎題複雜度 N最短解長度難度成長最高測試 N
河內塔圓盤數2 1指數20
跳棋交換每色棋子 n(n+1)2 1二次10
渡河難題演員/經紀人對數變量取決於 N、船容 k近線性10
積木世界積木總數取決於初始/目標堆疊近線性60
評測配額:每題允許 64 k tokens 輸出,每個 N 取 25 隨機樣本,報告平均值。

三、實驗結果與分析

3.1 正確率隨複雜度

圖 4(原論文)展示四謎題的整體正確率曲線。以 Claude 3.7 系列為例:在河內塔,非思考版在 N = 3 仍保持 99 %,Thinking 版約 92 %; 到 N = 7 時,Thinking 版下降到 43 %,非思考版僅 12 %; 而 N 10 兩者皆跌至 0 %,呈崩潰模式。

3.2 思考 token 與崩潰門檻

圖 6 顯示思考 token 與複雜度的雙折線。DeepSeek R1 在河內塔 N = 1 6 間,思考 token 隨 N 從 3 k 緩升到 16 k;一旦 N = 8 以上,token 量急降至 8 10 k,正確率同步趨零。此反直覺現象表明模型在逼近邏輯極限時會「提早放棄推理」。

3.3 中間解路徑:過度思考與延遲修正

透過謎題模擬器,作者截取 Thinking 軌跡中的「候選解」。在簡易題(N = 1 3)中,60 % 的正確解出現在前 30 % 的 tokens,但模型仍繼續生成錯誤路徑,導致最終答案覆蓋率僅 80 %(低於可能的 100 %);在中等題(N = 4 7),正確解往往落在後 50 % 位置,顯示模型需不斷自我修正;複雜題(N 8)則鮮少出現任何正確候選。

3.4 提供演算法也救不了

即便將河內塔完整遞迴演算法附於提示,Claude 3.7 Thinking 的崩潰點仍停留在 N 10,正確率從 31 %(N = 7)斷崖降至 0 %(N = 10)。可見瓶頸不在「找策略」,而在於穩定執行長鏈邏輯。

3.5 第一錯步與失敗分佈

在高複雜度 regime,Thinking 版雖較非思考版更常能撐過前 50 步,但其 首錯步 的離散程度(標準差)是後者的 1.5 2 倍,顯示推理過程波動更大。

四、結論與建議

1. 思考機制價值有限:LRM 僅在「N 4 7」這一中段顯著優於 LLM。當 N 再增,所有模型仍陷入零正確率。 2. 計算資源未被善用:在臨界點附近,模型仍剩餘 >40 k tokens 配額,卻自動縮短思考,暗示 RL 訓練未能學到「持續深想」的策略。 3. 題型敏感度高:同樣 100 步深度,模型可解河內塔卻失手於渡河難題,指出 LRMs 依賴資料分佈而非純粹的算法泛化能力。

對開發者而言,單純延長上下文或堆疊 CoT 長度,難以突破複雜度瓶頸;未來或需在 驗證 修正回圈符號規劃混合更精細的 RL 獎勵 上尋求突破。

五、研究侷限與後續方向

本研究仍屬「封閉世界」設定,未涵蓋開放式知識檢索或多模態推理。作者建議後續在法律推理、科研假說生成等領域設計可控賽題,並探討「多代理協作」是否能推升臨界複雜度。