首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|低空經(jīng)濟|智能汽車|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 運營 >> 正文

持續(xù)開源!中國聯(lián)通對DeepSeek系列思維鏈模型進行“自適應慢思考”優(yōu)化升級

2025年2月25日 09:56  CCTIME飛象網(wǎng)  

日前,DeepSeek團隊宣布將在“2月27日至3月3日”陸續(xù)開源5個代碼庫,這與中國聯(lián)通一直秉持的開源普惠理念不謀而合。繼中國聯(lián)通于1月開源元景“自適應慢思考”思維鏈大模型后,又針對DeepSeek系列模型進行了“自適應慢思考”優(yōu)化升級,現(xiàn)已開源,開源地址詳見文末。這也是目前業(yè)界首個對DeepSeek系列思維鏈模型做“自適應慢思考”優(yōu)化升級的工作。

DeepSeek官宣開源周

“以我為主,為我所用”的開放創(chuàng)新

元景思維鏈大模型具備多學科、多場景通用推理能力,且能在確保慢思考能力不打折的情況下,做到針對不同任務和難度的自適應慢思考,大幅降低了資源消耗,實現(xiàn)了大模型“慢思考”能力高性價比落地應用。

元景思維鏈大模型接入DeepSeek-R1并非簡單的“拿來主義”,而是“從其善,優(yōu)其不善”,對DeepSeek-R1版本進行了調(diào)整,最大程度規(guī)避了其面對簡單問題“過度思考”的現(xiàn)象,使模型具備了“自適應”能力。即在面向難度較高問題時使用慢思考模式生成長思維鏈,面向簡單問題時則傾向于生成簡潔的思維鏈,迅速準確的輸出相關(guān)答案。這樣避免了答案的冗余、資源的浪費以及減少用戶等待時間,提升用戶體驗。

調(diào)整步驟完整分享

難度自適應微調(diào):為實現(xiàn)模型推理的難度自適應,中國聯(lián)通利用DeepSeek-R1滿血版模型采樣生成數(shù)據(jù),通過復雜度量化模塊構(gòu)造長度偏好數(shù)據(jù)集,對于簡單問題從采樣答案中挑選長度較短的答案,對困難問題挑選長度較長的答案,使得答案長度與當前問題復雜度相匹配。在此基礎上對DeepSeek-R1進行微調(diào),使得微調(diào)后的模型具備對不同難度題目的自適應慢思考能力。具體改造流程如下圖所示。

自適應慢思考的DeepSeek-R1滿血版模型訓練流程圖

二次蒸餾:針對DeepSeek-R1的系列蒸餾模型,由于其使用的蒸餾數(shù)據(jù)來自訓練滿血版R1時使用的訓練數(shù)據(jù),而非由性能更好的R1滿血版自身生成的數(shù)據(jù),這會導致得到的蒸餾模型未能充分學習R1滿血版的能力,蒸餾效果大打折扣。為解決這個問題,中國聯(lián)通使用了二次蒸餾的策略,即利用DeepSeek-R1滿血版將已積累的高質(zhì)量數(shù)據(jù)轉(zhuǎn)化為包括深度思考過程的長思維鏈格式數(shù)據(jù),在DeepSeek-R1蒸餾系列模型基礎上再進行一次微調(diào),使模型具備更強的推理能力。

難度自適應強化學習:在對模型進行二次蒸餾后,中國聯(lián)通進一步借鑒DeepSeek-R1的構(gòu)建思路,在GRPO算法基礎上提出了一種難度自適應強化學習算法DA-GRPO(Difficulty Adaptive GRPO),對二次蒸餾模型進行難度自適應的強化學習訓練,進一步提升其推理效果。除了使用傳統(tǒng)的基于規(guī)則的正確性獎勵、格式獎勵、語言一致性獎勵外,DA-GRPO還基于每個問題的復雜程度和生成答案的長度對獎勵得分進行校準。具體而言,如果模型對一個簡單問題輸出較長的答案,則對獎勵分數(shù)進行相應的懲罰。同時,若模型對困難的問題輸出較長的答案,則給予其更高的獎勵分數(shù),以鼓勵其進行更充分的思考。這樣,通過提高樣本答案獎勵得分的區(qū)分度,使模型具備根據(jù)問題難度輸出相應長度答案的能力,在保證推理準確率的前提下顯著減少了答案冗余和資源消耗,從而實現(xiàn)對不同難度問題的自適應慢思考。

自適應慢思考的DeepSeek-R1蒸餾版模型訓練流程圖

推理計算量節(jié)省約30%!實測效果對比一覽

中國聯(lián)通以DeepSeek-R1-distill-32B模型為例,對上述方法的效果進行了驗證。通過在數(shù)學任務測評集(MATH500)上對比以及具體實驗可以看到,經(jīng)過難度自適應改造后的模型在不同難度等級問題上生成的回答長度較原版均明顯下降,并且對于最高難度(Level 5)輸出的回答長度降幅最大,體現(xiàn)了模型對不同難度等級問題具備自適應慢思考能力。經(jīng)過測評,這種創(chuàng)新的自適應慢思考方法,平均可節(jié)省約30%的推理計算量,冗余輸出大幅減少,用戶體驗得到有效提升。

回答長度對比:原版DeepSeek-R1-distill-32B(淺藍)vs自適應版(深藍)

除了通過對DeepSeek-R1模型進行自適應慢思考優(yōu)化升級外,中國聯(lián)通還在緊鑼密鼓推進對DeepSeek-R1系列模型的能力邊界量化和安全價值觀增強等相關(guān)工作的探索。未來,中國聯(lián)通將持續(xù)與以DeepSeek為代表的先進開源模型深度融合,不斷升級元景基礎模型能力和MaaS平臺功能,貫徹開源普惠理念,推進算力普惠、模型普惠、應用普惠,以先進數(shù)智水平賦能社會千行百業(yè)。

目前,自適應慢思考版的DeepSeek-R1-distill-32B已在GitHub、魔搭、始智等社區(qū)全面開源,地址如下:

GitHub:https://github.com/UnicomAI/Unichat-DeepSeek-R1-distill-32B

魔搭:https://www.modelscope.cn/UnicomAI/Unichat-DeepSeek-R1-distill-32B

始智:https://wisemodel.cn/models/UnicomLLM/Unichat-DeepSeek-R1-distill-32B

編 輯:霏雯
飛象網(wǎng)版權(quán)及免責聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
vivo胡柏山:手機行業(yè)是最典型的新質(zhì)生產(chǎn)力代表
精彩專題
低空經(jīng)濟2025:助力中國經(jīng)濟騰飛,成就高質(zhì)量發(fā)展
2024通信業(yè)年終盤點
2024數(shù)字科技生態(tài)大會
2024年度中國光電纜優(yōu)質(zhì)供應商評選活動
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復制、鏡像