大陸AI新創公司深度求索(DeepSeek)的DeepSeek-R1,今年初橫空出世後,震撼全球,1日正式推出最新大型語言模型DeepSeek V3.2,並同步發布增強版本DeepSeek V3.2-Speciale,官方強調新版本在推理能力上已可與GPT-5比肩。
陸媒IT之家報導,DeepSeek表示,在公開推理類Benchmark測試中,V3.2已達到GPT-5水準,僅略低於Gemini-3.0-Pro;相較前一代Kimi-K2-Thinking,V3.2的輸出長度大幅縮短,降低運算成本及使用者等待時間。
DeepSeek也同時推出V3.2-Speciale版本,專注於探索模型能力的極限。Speciale版本結合DeepSeek-Math-V2的定理證明能力,官方透露,Speciale模型近期參加多項國際比賽,已成功斬獲2025年國際數學奧林匹克(IMO)、中國數學奧林匹克(CMO)等多項競賽金牌。
在訓練策略上,DeepSeek強調採用大規模Agent訓練資料合成方法,構造「難解答、易驗證」的1,800多個強化學習環境,累計超過85,000條複雜指令,大幅提升模型泛化能力。
此外,DeepSeek推出V3.2之前,市場長期關注的R2模型,原本預計5月推出,但因技術及硬體等問題而延後。DeepSeek曾嘗試使用華為昇騰系列晶片作為R2的訓練硬體,但試驗多次失敗,轉而採用輝達晶片,導致原定時程被打亂。
消息人士透露,DeepSeek仍嘗試讓R2模型能在華為晶片上運行,華為甚至派出工程師協助R2模型在華為晶片上啟動,也未能成功完成一次訓練運行。