本文要點:
1. Meta可能正在開發(fā)比GPT-4更強大的AI大模型Llama3,并保持開源免費。
2.消息稱 Llama3計劃達(dá)到GPT-4的性能水平,但仍將免費提供。然而Meta尚未對此進(jìn)行官方確認(rèn)。
3. Llama2在某些應(yīng)用上達(dá)到GPT-3.5水平,但與GPT-4等模型仍有明顯差距。Llama3是否能超過GPT-4在技術(shù)上還存在不確定性。
站長之家(ChinaZ.com)8月31日 消息:據(jù)人工智能新聞網(wǎng)站the decoder報道,Meta可能正在開發(fā)比GPT-4更強大的AI大模型Llama3,并且保持開源免費。
報道稱,這是OpenAI 工程師、前 Google Brain 工程師 Jason Wei 在 Meta 組織的 Generative AI Group 社交活動中聽到的消息。
Jason Wei注意到 Meta 現(xiàn)在有足夠的計算能力來訓(xùn)練 Llama3和4。他透露,Llama3計劃達(dá)到GPT-4的性能水平,但仍將免費提供。
不過,Meta目前還沒有發(fā)表任何關(guān)于Llama3何時發(fā)布的聲明。盡管消息源來自Jason Wei,但其聽到的消息也可能有誤。
可以參考的是,從2023年2月下旬發(fā)布Llama1到2023年7月下旬發(fā)布 Llama2, Meta 花了大約五個月的時間。
GPT-4具有比標(biāo)準(zhǔn)版 Llama 更復(fù)雜的架構(gòu)
GPT-4可能通過使用更復(fù)雜的混合架構(gòu)來實現(xiàn)其高性能,該架構(gòu)具有16個專家網(wǎng)絡(luò),每個網(wǎng)絡(luò)具有約1110億個參數(shù)。
因此,從 Llama2升級到 Llama3可能比簡單地通過更多訓(xùn)練進(jìn)行擴(kuò)展更具挑戰(zhàn)性,并且可能比從 Llama1跳到 Llama2需要更長的時間。
Llama2在某些應(yīng)用程序中達(dá)到了GPT-3.5的水平,同時正在由開源社區(qū)通過微調(diào)和附加功能進(jìn)行優(yōu)化。
例如,最近發(fā)布的Code Llama基于 Llama2,通過微調(diào)在 HumanEval 編碼基準(zhǔn)中達(dá)到了GPT-3.5和GPT-4級別的結(jié)果(取決于測量類型)。
然而,Meta 在論文中指出, Llama2與 GPT-4和Google 的 PaLM-2等閉源模型仍然存在較大的性能差距。
屆時Llama3能否比GPT-4更強大還有待觀察。
(舉報)