11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
【新智元導(dǎo)讀】Mistral7B誕生一周年之際,法國(guó)AI初創(chuàng)公司Mistral再次連發(fā)兩個(gè)輕量級(jí)模型Ministral3B和Ministral8B,性能趕超Llama38B。Mistral7B僅僅發(fā)布一周年,法國(guó)AI初創(chuàng)小模型「lesMinistraux」就打敗它了。對(duì)于Mistral也是如此,若要持續(xù)打造優(yōu)秀的模型,只有這一種選擇。
【新智元導(dǎo)讀】Meta首個(gè)理解圖文的多模態(tài)Llama3.2來(lái)了!這次,除了11B和90B兩個(gè)基礎(chǔ)版本,Meta還推出了僅有1B和3B輕量級(jí)版本,適配了Arm處理器,手機(jī)、AR眼鏡邊緣設(shè)備皆可用。Llama3.1超大杯405B剛過(guò)去兩個(gè)月,全新升級(jí)后的Llama3.2來(lái)了!這次,最大的亮點(diǎn)在于,Llama3.2成為羊駝家族中,首個(gè)支持多模態(tài)能力的模型。這些新解決方案已經(jīng)集成到了Meta的參考實(shí)現(xiàn)、演示和應(yīng)用程序中,開(kāi)源
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、猛了!Meta震撼發(fā)布Llama3.2視覺(jué)方面吊打所有閉源模型?Meta在其年度MetaConnect2024大會(huì)上發(fā)布了Llama3.2,旨在提升邊緣AI和視覺(jué)任務(wù)的能力。Molmo的成功歸功于高質(zhì)量訓(xùn)練數(shù)據(jù)和多樣性,展現(xiàn)出色的多模態(tài)交互能力。
阿里巴巴官宣了史上最大規(guī)模的開(kāi)源發(fā)布,推出了基礎(chǔ)模型Qwen2.5、專(zhuān)用于編碼Qwen2.5-Coder和數(shù)學(xué)的Qwen2.5-Math。這三大類(lèi)模型一共有10多個(gè)版本,包括0.5B、1.5B、3B、7B、14B、32B和72B,適用于個(gè)人、企業(yè)以及移動(dòng)端、PC等不同人群不同業(yè)務(wù)場(chǎng)景的模型。同時(shí)對(duì)系統(tǒng)提示的多樣性更具彈性,增強(qiáng)了聊天機(jī)器人的角色扮演實(shí)施和條件設(shè)置。
開(kāi)源大模型社區(qū)再次「熱鬧」了起來(lái),主角是AI寫(xiě)作初創(chuàng)公司HyperWrite開(kāi)發(fā)的新模型Reflection70B。它的底層模型建立在MetaLlama3.170BInstruct上,并使用原始的Llamachat格式,確保了與現(xiàn)有工具和pipeline的兼容性。至于重新訓(xùn)練后的Reflection70B表現(xiàn)如何?我們拭目以待。
【新智元導(dǎo)讀】微調(diào)的所有門(mén)道,都在這里了。一旦決定進(jìn)行微調(diào),Llama微調(diào)指南提供了一個(gè)良好的起點(diǎn)。
【新智元導(dǎo)讀】最近的論文表明,LLM等生成模型可以通過(guò)搜索來(lái)擴(kuò)展,并實(shí)現(xiàn)非常顯著的性能提升。另一個(gè)復(fù)現(xiàn)實(shí)驗(yàn)也發(fā)現(xiàn),讓參數(shù)量?jī)H8B的Llama3.1模型搜索100次,即可在Python代碼生成任務(wù)上達(dá)到GPT-4o同等水平。為達(dá)到這個(gè)目的,可重復(fù)數(shù)字環(huán)境中的agent似乎是一個(gè)有前景的方向。
【新智元導(dǎo)讀】Meta、UC伯克利、NYU共同提出元獎(jiǎng)勵(lì)語(yǔ)言模型,給「超級(jí)對(duì)齊」指條明路:讓AI自己當(dāng)裁判,自我改進(jìn)對(duì)齊,效果秒殺自我獎(jiǎng)勵(lì)模型。LLM對(duì)數(shù)據(jù)的大量消耗,不僅體現(xiàn)在預(yù)訓(xùn)練語(yǔ)料上體現(xiàn)在RLHF、DPO等對(duì)齊階段。研究結(jié)果提供了有力的證據(jù),證明無(wú)需任何人類(lèi)反饋的自我改進(jìn)模型是實(shí)現(xiàn)超級(jí)對(duì)齊的一個(gè)有前途的方向。
Meta發(fā)布Llama3.1405B,開(kāi)放權(quán)重大模型的性能表現(xiàn)首次與業(yè)內(nèi)頂級(jí)封閉大模型比肩,AI行業(yè)似乎正走向一個(gè)關(guān)鍵的分叉點(diǎn)。扎克伯格親自撰文,堅(jiān)定表明「開(kāi)源AI即未來(lái)」,再次將開(kāi)源與封閉的爭(zhēng)論推向舞臺(tái)中央。他專(zhuān)注于AI開(kāi)源社區(qū)的運(yùn)營(yíng)管理,包括MindSpore、ONNX、Kubeflow等AI開(kāi)源項(xiàng)目以及openEuler、openGauss等操作系統(tǒng)及數(shù)據(jù)庫(kù)開(kāi)源項(xiàng)目,對(duì)AI開(kāi)源生態(tài)發(fā)展趨勢(shì)有著深刻理解,并在IEEEIC
繼分不清9.11和9.9哪個(gè)大以后,大模型又“集體失智”了!數(shù)不對(duì)單詞“Strawberry”中有幾個(gè)“r”,再次引起一片討論。GPT-4o不僅錯(cuò)了還很自信。最后正如網(wǎng)友所說(shuō),希望OpenAI等大模型公司,都能在下個(gè)版本中解決這個(gè)問(wèn)題。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、最強(qiáng)開(kāi)源模型來(lái)了!Llama3.1以405B參數(shù)領(lǐng)先GPT-4o在人工智能的世界里,開(kāi)源與閉源的較量從未停歇。整體業(yè)務(wù)增長(zhǎng)勢(shì)頭良好,展望未來(lái)發(fā)展?jié)摿薮蟆?/p>
Meta-Llama-3.1-8B簡(jiǎn)介Meta-Llama-3.1-8B是一款多語(yǔ)言大型語(yǔ)言模型,包含8B大小的版本,支持8種語(yǔ)言,專(zhuān)為多語(yǔ)言對(duì)話(huà)用例優(yōu)化,并在行業(yè)基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異。它采用自回歸語(yǔ)言模型,使用優(yōu)化的Transformer架構(gòu),并通過(guò)監(jiān)督式微調(diào)和強(qiáng)化學(xué)習(xí)結(jié)合人類(lèi)反饋來(lái)提高模型的有用性和安全性。通過(guò)AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
Meta-Llama-3.1-70B是什么?Meta-Llama-3.1-70B是Meta公司推出的大型語(yǔ)言模型,擁有70億個(gè)參數(shù),支持8種語(yǔ)言的文本生成。您可以通過(guò)我們的AI產(chǎn)品庫(kù)輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
探索MetaLlama3.1-405B能為你帶來(lái)哪些改變?yōu)槭裁催x擇MetaLlama3.1-405B?MetaLlama3.1-405B不僅僅是一款產(chǎn)品——它是一項(xiàng)革命性的技術(shù),致力于提供大型多語(yǔ)言預(yù)訓(xùn)練語(yǔ)言模型,以滿(mǎn)足自然語(yǔ)言處理研究人員、軟件開(kāi)發(fā)者、教育工作者和企業(yè)用戶(hù)的需求。通過(guò)AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
LIama3.1正式發(fā)布,登上大模型王座!在150多個(gè)基準(zhǔn)測(cè)試集中,405B版本的表現(xiàn)追平甚至超越了現(xiàn)有SOTA模型GPT-4o和Claude3.5Sonnet。最強(qiáng)開(kāi)源模型即最強(qiáng)模型。我希望你能加入我們的旅程,將人工智能的好處帶給世界上的每個(gè)人。
Llama3.1簡(jiǎn)介L(zhǎng)lama3.1是MetaAI推出的最新一代大型語(yǔ)言模型,具有128K的上下文長(zhǎng)度擴(kuò)展、支持八種語(yǔ)言,并首次開(kāi)源了405B參數(shù)級(jí)別的前沿AI模型。它為開(kāi)發(fā)者和技術(shù)研究者提供了強(qiáng)大的支持,無(wú)論是需要處理大量文本數(shù)據(jù)的編程助手是希望構(gòu)建多語(yǔ)言對(duì)話(huà)系統(tǒng)的開(kāi)發(fā)者,Llama3.1都能提供最先進(jìn)的能力。通過(guò)AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
Llama3.1是什么?Llama3.1是MetaAI推出的最新一代大型語(yǔ)言模型,具有128K的上下文長(zhǎng)度擴(kuò)展、支持八種語(yǔ)言,并首次開(kāi)源了405B參數(shù)級(jí)別的前沿AI模型。如果您想了解更多類(lèi)似產(chǎn)品,請(qǐng)?jiān)L問(wèn)AIbase,我們將為您提供智能搜索問(wèn)答功能,幫助您查找相關(guān)的AI應(yīng)用。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、震驚AI界!14、微軟研究院推AI框架E5-V:用文本對(duì)的單模態(tài)訓(xùn)練簡(jiǎn)化多模態(tài)學(xué)習(xí)降低成本微軟研究院與北京航空航天大學(xué)聯(lián)合推出的E5-V框架通過(guò)單模態(tài)訓(xùn)練簡(jiǎn)化多模態(tài)學(xué)習(xí),降低成本,在多個(gè)任務(wù)中展現(xiàn)出優(yōu)異性能,代表了多模態(tài)學(xué)習(xí)的重大進(jìn)步。
Llama3.1終于現(xiàn)身了,不過(guò)出處卻不是Meta官方。Reddit上新版Llama大模型泄露的消息遭到了瘋傳,除了基礎(chǔ)模型包括8B、70B和最大參數(shù)的405B的基準(zhǔn)測(cè)試結(jié)果。在部署Llama3.1模型的任何應(yīng)用之前,開(kāi)發(fā)人員應(yīng)針對(duì)模型的具體應(yīng)用進(jìn)行安全測(cè)試和微調(diào)。
7月23日凌晨,有人爆料,Meta的Llama3.1-405B評(píng)測(cè)數(shù)據(jù)遭遇泄漏,明天可能會(huì)發(fā)布Llama3系列中最大的參數(shù)模型,同時(shí)還會(huì)發(fā)布一個(gè)Llama3.1-70B版本。這也是在3.0版本基礎(chǔ)之上進(jìn)行了功能迭代,即便是70B的基礎(chǔ)模型的性能也超過(guò)了GPT-4o。期待一波明天,看看Meta還能整啥花活。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、獨(dú)立開(kāi)發(fā)者狂喜!這一方法通過(guò)智能數(shù)據(jù)批次篩選,優(yōu)化了訓(xùn)練效率和效果,為人工智能領(lǐng)域帶來(lái)重大突破。
【新智元導(dǎo)讀】來(lái)自佐治亞理工學(xué)院和英偉達(dá)的兩名華人學(xué)者帶隊(duì)提出了名為RankRAG的微調(diào)框架,簡(jiǎn)化了原本需要多個(gè)模型的復(fù)雜的RAG流水線(xiàn),用微調(diào)的方法交給同一個(gè)LLM完成,結(jié)果同時(shí)實(shí)現(xiàn)了模型在RAG任務(wù)上的性能提升。在需要大量事實(shí)知識(shí)的文本生成任務(wù)中,RAG成為了常用的LLM部署技巧。值得一提的是,本篇論文對(duì)標(biāo)的基準(zhǔn)方法ChatQA也是WeiPing之前的研究。
導(dǎo)讀:時(shí)隔4個(gè)月上新的Gemma2模型在LMSYSChatbotArena的排行上,以27B的參數(shù)擊敗了許多更大規(guī)模的模型,甚至超過(guò)了70B的Llama-3-Instruct,成為開(kāi)源模型的性能第一!谷歌出手,果然非同凡響。Gemma2上周剛剛發(fā)布,就在LMSYS競(jìng)技場(chǎng)上取得了亮眼的成績(jī)?!箍磥?lái)在基準(zhǔn)測(cè)試領(lǐng)域,重復(fù)的歷史總在不斷上演那個(gè)金句也總是適用——「當(dāng)一個(gè)衡量標(biāo)準(zhǔn)成為目標(biāo)時(shí),它就不再是一個(gè)好的衡量標(biāo)準(zhǔn)了
【新智元導(dǎo)讀】24點(diǎn)游戲、幾何圖形、一步將死問(wèn)題,這些推理密集型任務(wù),難倒了一片大模型,怎么破?北大、UC伯克利、斯坦福研究者最近提出了一種全新的BoT方法,用思維模板大幅增強(qiáng)了推理性能。Llama3-8B在BoT的加持下,竟多次超越Llama3-70B!大語(yǔ)言模型不擅長(zhǎng)推理怎么辦?用思維緩沖區(qū)來(lái)解決!最近,北大、UC伯克利、斯坦福的研究人員提出了一種元緩沖區(qū)。他擔(dān)任/曾擔(dān)任中?
每個(gè)token只需要5.28%的算力,精度就能全面對(duì)標(biāo)Llama3。開(kāi)源大模型,再添一位重量級(jí)選手——來(lái)自浪 潮信息的32專(zhuān)家MoE模型,源2.0-M32。從創(chuàng)新研發(fā)到開(kāi)源開(kāi)放,浪 潮信息將堅(jiān)持致力于研發(fā)基礎(chǔ)大模型,為企業(yè)用戶(hù)降低大模型使用門(mén)檻,加速推進(jìn)產(chǎn)業(yè)智能化升級(jí)。
LLama3-V模型正式發(fā)布,這是一種全新的SOTA開(kāi)源VLM模型。LLama3-V不僅優(yōu)于LLaVA在與GPT4-V、GeminiUltra、ClaudeOpus相比的性能表現(xiàn)上也不遜色,同時(shí)模型體積只有它們的1/100。這一消息讓人興奮不已,相信隨著LLama3-V的問(wèn)世,將會(huì)給人工智能領(lǐng)域帶來(lái)全新的發(fā)展和突破。
一個(gè)教你從頭開(kāi)始實(shí)現(xiàn)Llama3的代碼庫(kù)在網(wǎng)上爆火,吸引了無(wú)數(shù)開(kāi)發(fā)者的關(guān)注。知名AI專(zhuān)家AndrejKarpathy一鍵三連,這個(gè)項(xiàng)目在社交媒體X上的轉(zhuǎn)贊收藏量超過(guò)6.8k,GitHub上更是收獲了超過(guò)2k的星標(biāo)。除了發(fā)布這個(gè)代碼庫(kù),Nishant還上傳了一個(gè)YouTube視頻詳細(xì)解釋代碼庫(kù)內(nèi)容,并撰寫(xiě)了一篇博客詳解潛在一致性模型。
阿布扎比先進(jìn)技術(shù)研究委員會(huì)下屬的技術(shù)創(chuàng)新研究所發(fā)布了新一代的Falcon2模型。這一開(kāi)源的大語(yǔ)言模型以其110億參數(shù)和5.5萬(wàn)億token的規(guī)模,性能超越了Llama3。Falcon2的本次升級(jí),為其商化進(jìn)程提供了有力支撐TII也透露正在醞釀Falcon2下一代模型,這些模型的性能將得到進(jìn)一步增強(qiáng),為人工智能領(lǐng)域帶來(lái)更多的創(chuàng)新和發(fā)展。
國(guó)內(nèi)的開(kāi)發(fā)者們或許沒(méi)有想到,有朝一日,他們開(kāi)發(fā)的AI大模型會(huì)像出海的網(wǎng)文、短劇一樣,讓世界各地的網(wǎng)友坐等更新。來(lái)自韓國(guó)的網(wǎng)友已經(jīng)開(kāi)始反思:為什么我們就沒(méi)有這樣的模型?這個(gè)「別人家的孩子」就是阿里云的通義千問(wèn)。在我們看來(lái),近一年來(lái)通義系列的持續(xù)開(kāi)源,對(duì)中文大模型社區(qū)的發(fā)展非常有意義,也期待后續(xù)有越來(lái)越多的強(qiáng)勁大模型繼續(xù)開(kāi)源。
LobeChat是一個(gè)創(chuàng)新的網(wǎng)頁(yè)平臺(tái),它支持通過(guò)網(wǎng)頁(yè)版直接調(diào)用Ollama本地模型。這項(xiàng)服務(wù)的推出,為用戶(hù)提供了一種便捷的方式,通過(guò)網(wǎng)頁(yè)界面直接利用開(kāi)源大模型的能力。體驗(yàn)地址:https://chat-preview.lobehub.com/chat隨著LobeChat等工具的不斷發(fā)展,我們可以預(yù)見(jiàn)未來(lái)將有更多集成本地大模型的網(wǎng)頁(yè)應(yīng)用出現(xiàn),為用戶(hù)提供更豐富的交互體驗(yàn)和更高效的工作流程。