最新國產(chǎn)開源MoE大模型,剛剛亮相就火了。DeepSeek-V2性能達GPT-4級別,但開源、可免費商用、API價格僅為GPT-4-Turbo的百分之一。因此一經(jīng)發(fā)布,立馬引發(fā)不小討論。從公布的性能指標來看,DeepSeek-V2的中文綜合能力超越一眾開源模型,并和GPT-4-Turbo、文心4.0等閉源模型同處第一
......
本文由站長之家合作伙伴自媒體作者“量子位公眾號”授權(quán)發(fā)布于站長之家平臺,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護時間,為了保證文章信息的及時性,內(nèi)容觀點的準確性,平臺將不提供完全的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請查看原文,獲取內(nèi)容詳情。
(舉報)