幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > 開(kāi)源大模型最新資訊  > 正文

鴨嘴獸-70B登頂HuggingFace開(kāi)源大模型排行榜

2023-08-24 09:52 · 稿源:站長(zhǎng)之家

要點(diǎn):

  • 鴨嘴獸-70B使用優(yōu)化過(guò)的數(shù)據(jù)集Open-Platypus訓(xùn)練,刪除相似和重復(fù)問(wèn)題。

  • 應(yīng)用LoRA和PEFT對(duì)模型進(jìn)行微調(diào),重點(diǎn)優(yōu)化非注意力模塊。

  • 檢查并解決測(cè)試數(shù)據(jù)泄漏和訓(xùn)練數(shù)據(jù)污染問(wèn)題。

站長(zhǎng)之家(ChinaZ.com)8月24日 消息:最近,來(lái)自波士頓大學(xué)的鴨嘴獸-70B模型登頂了HuggingFace的開(kāi)源大模型排行榜,成為目前全球開(kāi)源領(lǐng)域中表現(xiàn)最強(qiáng)的語(yǔ)言模型。鴨嘴獸的變強(qiáng)有以下三個(gè)關(guān)鍵原因:

首先,鴨嘴獸使用了一個(gè)經(jīng)過(guò)優(yōu)化的開(kāi)源數(shù)據(jù)集Open-Platypus進(jìn)行訓(xùn)練。該數(shù)據(jù)集由11個(gè)開(kāi)源數(shù)據(jù)集組合而成,主要包含人工設(shè)計(jì)的問(wèn)題,只有約10%的問(wèn)題是由語(yǔ)言模型生成。同時(shí),研究人員對(duì)數(shù)據(jù)集進(jìn)行了處理,刪除了相似和重復(fù)的問(wèn)題,最大限度地減少了數(shù)據(jù)冗余。這有助于模型在更小的數(shù)據(jù)集上獲取更強(qiáng)大的能力。

image.png

其次,研究人員使用了低秩逼近(LoRA)和參數(shù)高效微調(diào)(PEFT)對(duì)鴨嘴獸模型進(jìn)行了微調(diào)。與完全微調(diào)不同,LoRA只訓(xùn)練轉(zhuǎn)換層中的可訓(xùn)練參數(shù),從而大大降低了計(jì)算訓(xùn)練成本。PEFT則主要微調(diào)了非注意力模塊,如門(mén)控單元和上下采樣模塊,這進(jìn)一步提升了模型性能。相比僅優(yōu)化注意力模塊,這種方法取得了更好的效果。

image.png

論文地址:https://arxiv.org/pdf/2308.07317.pdf

最后,研究人員深入探索了開(kāi)放式語(yǔ)言模型訓(xùn)練中存在的數(shù)據(jù)污染問(wèn)題,并針對(duì)鴨嘴獸的數(shù)據(jù)集進(jìn)行了嚴(yán)格過(guò)濾。他們開(kāi)發(fā)了一套啟發(fā)式方法,仔細(xì)檢查訓(xùn)練集中與測(cè)試集相似的問(wèn)題,刪除或以任何方式將其標(biāo)記為潛在的測(cè)試數(shù)據(jù)泄露,避免了測(cè)試數(shù)據(jù)非故意地進(jìn)入訓(xùn)練集,保證了模型評(píng)估的公平性。

通過(guò)數(shù)據(jù)集優(yōu)化、模型微調(diào)技巧以及數(shù)據(jù)質(zhì)量控制,鴨嘴獸-70B得以在眾多開(kāi)源大模型中脫穎而出,登上榜首。這為語(yǔ)言模型的訓(xùn)練提供了寶貴經(jīng)驗(yàn),也使開(kāi)源社區(qū)對(duì)自主研發(fā)強(qiáng)大AI模型更具信心。如果社會(huì)各界能堅(jiān)持開(kāi)放創(chuàng)新、合作共贏的理念,我們離強(qiáng)人工智能的到來(lái)就不會(huì)太遠(yuǎn)了。

舉報(bào)

  • 相關(guān)推薦

熱文

  • 3 天
  • 7天