要點(diǎn):
1、代理調(diào)優(yōu)方法無需接觸模型的內(nèi)部權(quán)重。
2、通過對比小型調(diào)整模型和未調(diào)整模型的預(yù)測結(jié)果來引導(dǎo)基礎(chǔ)模型的預(yù)測。
3、代理調(diào)優(yōu)方法能夠在解碼時(shí)更好地保留訓(xùn)練知識(shí)。
站長之家(ChinaZ.com)1月24日 消息:華盛頓大學(xué)推出更高效的大模型調(diào)優(yōu)方法“代理調(diào)優(yōu)”,該方法通過對比小型調(diào)整模型和未調(diào)整模型的預(yù)測結(jié)果來引導(dǎo)基礎(chǔ)模型的預(yù)測,實(shí)現(xiàn)對模型的調(diào)優(yōu)而無需接觸模型的內(nèi)部權(quán)重。
隨著ChatGPT等生成式AI產(chǎn)品的發(fā)展,基礎(chǔ)模型的參數(shù)不斷增加,因此進(jìn)行權(quán)重調(diào)優(yōu)需要耗費(fèi)大量時(shí)間和算力。為提升調(diào)優(yōu)效率,該方法可以在解碼時(shí)更好地保留訓(xùn)練知識(shí),同時(shí)保留更大規(guī)模預(yù)訓(xùn)練的優(yōu)勢。研究人員對LlAMA-2的13B、70B原始模型進(jìn)行了微調(diào),結(jié)果顯示代理調(diào)優(yōu)的性能比直接調(diào)優(yōu)的模型更高。
論文地址:https://arxiv.org/pdf/2401.08565.pdf
該方法需要準(zhǔn)備一個(gè)小型的預(yù)訓(xùn)練語言模型M-,與基礎(chǔ)模型M共享相同的詞匯表,然后使用訓(xùn)練數(shù)據(jù)對M-進(jìn)行調(diào)優(yōu)得到調(diào)優(yōu)模型M+。
在解碼時(shí),通過對比基礎(chǔ)模型M的輸出預(yù)測分布和調(diào)優(yōu)模型M+的輸出預(yù)測分布之間的差異,來引導(dǎo)基礎(chǔ)模型的預(yù)測,最后將預(yù)測差異應(yīng)用于基礎(chǔ)模型的預(yù)測結(jié)果,以引導(dǎo)基礎(chǔ)模型的預(yù)測朝向調(diào)優(yōu)模型的預(yù)測方向移動(dòng)。這一方法與大模型中的“蒸餾”技術(shù)恰恰相反,是一種創(chuàng)新性的調(diào)優(yōu)方法。
代理調(diào)優(yōu)方法的推出,為大模型的調(diào)優(yōu)提供了更高效的解決方案,同時(shí)也可以在解碼時(shí)更好地保留訓(xùn)練知識(shí),使得模型的性能更高。這一方法的推出將為AI領(lǐng)域的發(fā)展帶來新的啟示,值得進(jìn)一步深入研究和應(yīng)用。
(舉報(bào))