要點(diǎn):
李開復(fù)的Yi-34B-Chat模型在多個(gè)評(píng)測(cè)中取得顯著成績(jī),勝率達(dá)94.08%,超越主流大模型如LLaMA2和ChatGPT。
該模型在加州大學(xué)伯克利分校主導(dǎo)的LMSYS ORG排行榜中以1102的Elo評(píng)分追平GPT-3.5,展現(xiàn)強(qiáng)大性能。在中文能力評(píng)測(cè)中,Yi-34B-Chat在SuperCLUE排行榜上以31.82%的對(duì)戰(zhàn)勝率僅次于GPT4-Turbo。
Yi-34B-Chat的成功得益于零一萬物團(tuán)隊(duì)的AI Alignment團(tuán)隊(duì)采用創(chuàng)新對(duì)齊策略,包括輕量化指令微調(diào)方案、多能力融合、對(duì)數(shù)據(jù)的關(guān)注等。
站長(zhǎng)之家(ChinaZ.com)12月11日 消息:近期,李開復(fù)的Yi-34B-Chat模型在多個(gè)評(píng)測(cè)中大放異彩。其94.08%的勝率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大學(xué)伯克利分校主導(dǎo)的LMSYS ORG排行榜中,以1102的Elo評(píng)分追平了GPT-3.5。此外,在中文SuperCLUE排行榜上,Yi-34B-Chat以31.82%的勝率僅次于GPT4-Turbo。
通過對(duì)話場(chǎng)景實(shí)測(cè),Yi-34B-Chat在不同對(duì)話場(chǎng)景中展現(xiàn)出優(yōu)越的實(shí)力。從對(duì)Transformer模型結(jié)構(gòu)的發(fā)展方向到生成小紅書文案,Yi-34B-Chat的回答均顯示其有理有據(jù),符合當(dāng)前主流風(fēng)格。在中文理解方面,Yi-34B-Chat在復(fù)雜的中文理解問題上也展現(xiàn)了出色的精準(zhǔn)性。
項(xiàng)目地址:https://huggingface.co/01-ai
Yi-34B-Chat模型的卓越表現(xiàn)不僅僅源于其強(qiáng)基座系列,還得益于人工智能對(duì)齊團(tuán)隊(duì)的創(chuàng)新對(duì)齊策略。采用輕量化指令微調(diào)方案,單項(xiàng)能力提升和多項(xiàng)能力融合兩個(gè)階段的創(chuàng)新訓(xùn)練方式,以及關(guān)注數(shù)據(jù)質(zhì)量和指令多樣性等方面的獨(dú)特設(shè)計(jì),使Yi-34B-Chat在各方面均有出色表現(xiàn)。
Yi-34B模型開源首月表現(xiàn)亮眼,在Hugging Face社區(qū)下載量高達(dá)16.8萬,魔搭社區(qū)下載量也達(dá)到1.2萬,GitHub上獲得超過4900個(gè)Stars。多家知名公司和機(jī)構(gòu)基于Yi模型基座推出的微調(diào)模型,如獵戶星空公司的OrionStar-Yi-34B-Chat模型、IDEA研究院的SUS-Chat-34B等,性能表現(xiàn)優(yōu)異。在GPU加速大模型的實(shí)驗(yàn)中,Yi-6B成為范例項(xiàng)目。
開發(fā)者Eric Hartford提出Yi模型使用了與LLaMA模型相同的架構(gòu),引發(fā)了一場(chǎng)關(guān)于“抄襲”的質(zhì)疑。零一萬物團(tuán)隊(duì)意識(shí)到問題,及時(shí)在各開源平臺(tái)重新提交模型及代碼,完成了版本更新。然而,這一小問題在國(guó)內(nèi)被曲解,引發(fā)了一場(chǎng)輿論風(fēng)暴。團(tuán)隊(duì)強(qiáng)調(diào),他們是從零開始打造Yi系列模型,重新命名僅為對(duì)比實(shí)驗(yàn)需求。
這一系列的成績(jī)和問題共同勾勒出Yi-34B-Chat模型的成功軌跡,盡管受到一些質(zhì)疑,但其在技術(shù)創(chuàng)新和用戶體驗(yàn)方面的表現(xiàn)仍然備受矚目。
(舉報(bào))