幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 業(yè)界 > 關(guān)鍵詞  > rStar-Math最新資訊  > 正文

重大突破!微軟發(fā)布“自我進(jìn)化”,幫小模型超OpenAI-o1

2025-01-10 08:47 · 稿源: ? AIGC開放社區(qū)公眾號

聲明:本文來自于微信公眾號AIGC開放社區(qū),授權(quán)站長之家轉(zhuǎn)載發(fā)布。

微軟亞洲研究院發(fā)布了一種創(chuàng)新算法——rStar-Math。

rStar-Math通過代碼增強(qiáng)CoT、蒙特卡洛樹搜索等,可以幫助小參數(shù)模型在不依賴?yán)蠋熌P驼麴s的情況下,實現(xiàn)多輪自我思維深度進(jìn)化,極大增強(qiáng)模型的數(shù)學(xué)推理能力。

在美國數(shù)學(xué)競賽AIME2024測試中,rStar-Math平均解決了53.3%(8/15)的難題,超過了OpenAI o1-preview的44.6%,以及所有其他開源的大模型,成為最聰明的前20%高中數(shù)學(xué)生。

在MATH基準(zhǔn)測試中,rStar-Math將阿里開源的小模型Qwen2.5-Math-7B的準(zhǔn)確率從58.8%提高到90.0%,Qwen2.5-Math-1.5B的準(zhǔn)確率從51.2%提高到87.8%,Phi3-mini-3.8B從41.4%提高到86.4%,全部超過了OpenAI o1-preview。

這充分說明,小模型在創(chuàng)新算法和高質(zhì)量數(shù)據(jù)加持下,推理能力同樣可以超大參數(shù)的前沿模型。

圖片

代碼增強(qiáng)CoT

傳統(tǒng)的數(shù)學(xué)推理模型依賴于自然語言生成的推理步驟,這種方法雖然直觀,但容易產(chǎn)生錯誤或不相關(guān)的步驟,尤其是在復(fù)雜的數(shù)學(xué)問題中很難被察覺到。所以,rStar-Math使用代碼增強(qiáng)CoT(Chain-of-Thought,思維鏈)的方法來解決這個難題。

模型在生成每一步推理時,不僅生成自然語言的解釋,還生成對應(yīng)的Python代碼,并通過代碼執(zhí)行來驗證推理步驟的正確性。代碼增強(qiáng)CoT能夠提供嚴(yán)格的驗證機(jī)制,確保每一步推理的正確性。

例如,在解決一個數(shù)學(xué)問題時,模型可能會生成一個方程求解的步驟,并通過Python代碼實際執(zhí)行該方程求解過程。如果代碼執(zhí)行成功且結(jié)果正確,該步驟才會被保留為有效推理步驟。這種方法不僅減少了錯誤推理步驟的生成,還提高了推理軌跡的整體質(zhì)量。

圖片

為了進(jìn)一步確保推理步驟的質(zhì)量,rStar-Math 使用了蒙特卡洛樹搜索(MCTS)來生成逐步推理軌跡。MCTS 被用來分解復(fù)雜的數(shù)學(xué)問題為多個單步生成任務(wù)。

每個步驟中,策略模型生成多個候選步驟,并通過代碼執(zhí)行來過濾有效節(jié)點(diǎn)。通過廣泛的MCTS回滾,rStar-Math 能夠為每個步驟分配Q值,確保生成的推理軌跡由正確且高質(zhì)量的中間步驟組成。

PPM訓(xùn)練方法

目前,多數(shù)大模型在推理數(shù)學(xué)問題時面臨著無法提供細(xì)粒度的步驟級反饋,以幫助其在推理過程中做出更優(yōu)的選擇。rStar-Math通過引入過程獎勵模型(PRM)來幫助模型找到更優(yōu)的推理路徑。

PPM 的核心思想是通過構(gòu)建步驟級的正負(fù)偏好對來訓(xùn)練模型,而不是直接依賴于精確的步驟級評分。PPM 的訓(xùn)練方法利用了MCTS生成的Q值,這些Q值是通過廣泛的回滾和反向傳播過程計算得出的,反映了每個步驟對最終答案的貢獻(xiàn)。雖然這些Q值本身并不完全精確,但它們能夠可靠地區(qū)分高質(zhì)量步驟和低質(zhì)量步驟。

圖片

PPM從MCTS樹中選擇Q值最高的兩個步驟作為正例,Q值最低的兩個步驟作為負(fù)例,構(gòu)建偏好對。通過這種方式,PPM 能夠?qū)W習(xí)到哪些步驟更有可能引導(dǎo)模型生成正確的推理軌跡,從而在推理過程中做出更優(yōu)的選擇。

PPM 的訓(xùn)練過程采用了標(biāo)準(zhǔn)的Bradley-Terry 模型和成對排序損失函數(shù)。對于每個步驟,PPM 預(yù)測一個獎勵分?jǐn)?shù),并通過成對排序損失函數(shù)來優(yōu)化模型的預(yù)測能力。成對排序損失函數(shù)的核心思想是最大化正例步驟與負(fù)例步驟之間的獎勵分?jǐn)?shù)差異,從而確保模型能夠準(zhǔn)確地區(qū)分高質(zhì)量和低質(zhì)量的推理步驟。

圖片

PPM 的訓(xùn)練方法還引入了一個重要的創(chuàng)新點(diǎn),避免直接使用Q值作為獎勵標(biāo)簽。雖然Q值能夠提供一定的步驟級反饋,但由于其固有的噪聲和不精確性,直接使用Q值作為訓(xùn)練目標(biāo)會導(dǎo)致模型學(xué)習(xí)到不準(zhǔn)確的獎勵信號。

所以,PPM 通過構(gòu)建偏好對將Q值轉(zhuǎn)化為相對排序問題,從而減少了噪聲對模型訓(xùn)練的影響。這種方法不僅提高了模型的魯棒性,還使得PPM能夠在推理過程中更可靠地評估每一步的質(zhì)量。

多輪自我進(jìn)化

rStar-Math通過四輪自我思維深度進(jìn)化,并結(jié)合PPM、MCTS和代碼增強(qiáng)CoT 逐步增強(qiáng)模型的推理能力。

第一輪,通過監(jiān)督微調(diào)對基礎(chǔ)模型進(jìn)行初步改進(jìn),為后續(xù)的自我進(jìn)化奠定基礎(chǔ)。這一輪的關(guān)鍵在于生成高質(zhì)量的初始訓(xùn)練數(shù)據(jù),并利用這些數(shù)據(jù)對基礎(chǔ)模型進(jìn)行微調(diào)。

第二輪,通過PPM顯著提升模型推理能力。PPM通過分析策略模型生成的推理步驟,識別出哪些步驟是高質(zhì)量的,哪些步驟需要改進(jìn)。然后將這些反饋信息傳遞給策略模型,指導(dǎo)其在后續(xù)的推理中做出更好的選擇。

圖片

第三輪,通過PPM增強(qiáng)的MCTS生成更高質(zhì)量的數(shù)據(jù),進(jìn)一步提升模型的推理能力。在這一輪中,PPM不僅評估策略模型生成的推理步驟,還指導(dǎo)MCTS的搜索過程,使其更有效地探索高質(zhì)量的推理路徑。

第四輪,通過增加MCTS回滾次數(shù)解決超難數(shù)學(xué)推理問題。在前三輪自我進(jìn)化的基礎(chǔ)之上,第四輪自我進(jìn)化通過增加MCTS的回滾次數(shù),進(jìn)一步提升了rStar-Math解決具有挑戰(zhàn)性數(shù)學(xué)問題的能力。

增加回滾次數(shù)使得MCTS能夠更深入地探索不同的推理路徑,發(fā)現(xiàn)那些在初步探索中可能被忽略的高質(zhì)量解決方案。這不僅提高了模型對復(fù)雜問題的解決能力,還增強(qiáng)了其在面對高難度數(shù)學(xué)問題時的魯棒性。

代碼地址(目前無法打開處于審核中):https://github.com/microsoft/rStar

論文地址:https://arxiv.org/abs/2501.04519

從昨天微軟開源的最強(qiáng)小模型Phi-4,以及最新推出創(chuàng)新算法rStar-Math來看,未來小模型的性能和效率將逐漸成為主流,并且對于沒有強(qiáng)大算力集群的中小企業(yè)和個人開發(fā)者來說非常實用。

舉報

  • 相關(guān)推薦
  • 微軟發(fā)布Phi-4,最強(qiáng)小模型!參數(shù)極小、GPT-4o

    微軟研究院發(fā)布了最強(qiáng)小參數(shù)模型——Phi-4。Phi系列模型自今已經(jīng)發(fā)布了5代,Phi-4也延續(xù)了之前的小參數(shù)模式只有140億。值得一提的是,微軟AI副總裁、phi系列模型的靈魂人物之一SébastienBubeck已經(jīng)離開了微軟加入了OpenAI。

  • 成本暴降60% OpenAI宣布開放滿血o1模型API

    從12月5日開始,OpenAI將在連續(xù)12個工作日直播,每天發(fā)布一款全新的應(yīng)用或功能。今天是發(fā)布會的第9天,直播內(nèi)容面向開發(fā)者,OpenAI正式發(fā)布o(jì)1模型的API,并對實時API進(jìn)行大升級支持WebRTC。OpenAI的周活躍用戶數(shù)量在今年8月剛剛突破2億。

  • 重磅!OpenAI開放滿血o1模型API,成本暴降60%

    今天凌晨2點(diǎn),OpenAI開啟了第9天技術(shù)分享直播,正式發(fā)布了o1模型的API,并且對實時API進(jìn)行大升級支持WebRTC。o1模型的API與之前的預(yù)覽版本相比,思考成本降低了60%,并且附帶高級視覺功能;GPT-4o的音頻成本降低60%mini版本價格更是暴降了10倍。這些API已經(jīng)普遍可用,更詳細(xì)內(nèi)容可以去OpenAI開發(fā)論壇查看。

  • 重磅!微軟開源最強(qiáng)小模型Phi-4,GPT-4o、可商用

    微軟研究院開源了目前最強(qiáng)小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強(qiáng),在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測試中,超過了OpenAI的GPT-4o,也超過了同類頂級開源模型Qwen2.5-14B和Llama-3.3-70B。在與其他類似規(guī)模和更大規(guī)模的模型比較中,phi-4在12個基準(zhǔn)測試中的9個上優(yōu)于同類開源模型Qwen-2.5-14B-Instruct。

  • OpenAI最大秘密,竟被中國研究者破解?復(fù)旦等驚人揭秘o1路線圖

    【新智元導(dǎo)讀】OpenAIo1和o3模型的秘密,竟傳出被中國研究者「破解」?今天,復(fù)旦等機(jī)構(gòu)的這篇論文引起了AI社區(qū)的強(qiáng)烈反響,他們從強(qiáng)化學(xué)習(xí)的角度,分析了實現(xiàn)o1的路線圖,并總結(jié)了現(xiàn)有的「開源版o1」。國內(nèi)的一篇論文,引得全球AI學(xué)者震驚不已。為了實現(xiàn)像o1這樣的大規(guī)模強(qiáng)化學(xué)習(xí),研究LLM強(qiáng)化學(xué)習(xí)的ScalingLaw至關(guān)重要。

  • OpenAI甩王炸!發(fā)布模型o3,一夜再次改變世界!

    今天凌晨2點(diǎn),OpenAI開啟第12天技術(shù)直播,也是最后一天。不負(fù)眾望終于整了個大的,發(fā)布全新預(yù)覽版模型——o3。研究人員可通過訪問OpenAI的官方網(wǎng)站,填寫申請表格參與測試。

  • AI日報:字節(jié)重磅推出豆包視覺理解模型;AI“魔改”寵物跳舞爆火;OpenAI開放滿血o1模型API;即夢AI上線海報生成功能

    歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。9、英偉達(dá)發(fā)布生成式AI超級電腦:僅249美元性能提升1.7倍英偉達(dá)推出的JetsonOrinNanoSuper是一款面向開發(fā)者的生成式人工智能超級電腦,定價249美元,性能提升顯著,適用于多種AI應(yīng)用場景。此次股票出售不僅激勵了員工,也加強(qiáng)了公司與投資者之間的信任關(guān)系,顯示出OpenAI作為創(chuàng)新型公司的潛力與價值。

  • OpenAI最強(qiáng)推理模型o3發(fā)布:AGI能力暴漲 接近人類水平

    OpenAI連續(xù)12日圣誕發(fā)布”終于迎來激動人心的大結(jié)局,OpenAI推出重磅收官新品,其迄今最強(qiáng)前沿推理模型的升級版o3。OpenAI號稱o3在一些條件下接近通用人工智能,共有o3和精簡版o3-mini兩個版本。12、o1下一代模型o3亮相,推出兩個版本,正式版o3以及精簡版o3-mini。

  • OpenAI正式發(fā)布o3 - 通往AGI的路上,已經(jīng)沒有了任何阻礙

    今天凌晨2點(diǎn),OpenAI的12天直播,終于來到了最終章。也在一片圣誕的氣息中終于回歸。既然看到這里了,如果覺得不錯,隨手點(diǎn)個贊、在看、轉(zhuǎn)發(fā)三連吧,如果想第一時間收到推送,也可以給我個星標(biāo)?~謝謝你看我的文章,我們,下次再見。

  • 谷歌“狙擊”OpenAI,發(fā)布新一代大模型,主打Agent+多模態(tài)

    繼量子芯片之后,谷歌又來搶“OpenAI雙12直播”的流量了!就在剛剛,谷歌新一代大模型Gemini2.0突然登場,再次由谷歌CEO皮猜親自官宣。新一代模型專為AIAgent打造,谷歌表示目前已經(jīng)將2.0版本提供給了一些開發(fā)者內(nèi)測,正在迅速將其集成在Gemini和搜索等產(chǎn)品線中。從OpenAI跳槽到谷歌的LoganKilpatrick表示,他們在GoogleAIStudio中創(chuàng)建了一個全新體驗,展示了Gemini2.0視頻理解、原生工具?

熱文

  • 3 天
  • 7天