11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
【新智元導(dǎo)讀】Mistral7B誕生一周年之際,法國AI初創(chuàng)公司Mistral再次連發(fā)兩個輕量級模型Ministral3B和Ministral8B,性能趕超Llama38B。Mistral7B僅僅發(fā)布一周年,法國AI初創(chuàng)小模型「lesMinistraux」就打敗它了。對于Mistral也是如此,若要持續(xù)打造優(yōu)秀的模型,只有這一種選擇。
全球最大社交平臺Meta聯(lián)合創(chuàng)始人兼CEO扎克伯格接受了,前Vox著名記者CleoAbram的專訪。主要談到了Meta最新發(fā)布的變革性產(chǎn)品全息AR眼鏡,開源大模型、生成式AI的發(fā)展以及全球開發(fā)者非常關(guān)心的Llama-4。這種方法顯著降低了構(gòu)建Llama模型的復(fù)雜性,加速了AI在廣泛的應(yīng)用程序和用例中的創(chuàng)新。
【新智元導(dǎo)讀】Meta首個理解圖文的多模態(tài)Llama3.2來了!這次,除了11B和90B兩個基礎(chǔ)版本,Meta還推出了僅有1B和3B輕量級版本,適配了Arm處理器,手機(jī)、AR眼鏡邊緣設(shè)備皆可用。Llama3.1超大杯405B剛過去兩個月,全新升級后的Llama3.2來了!這次,最大的亮點(diǎn)在于,Llama3.2成為羊駝家族中,首個支持多模態(tài)能力的模型。這些新解決方案已經(jīng)集成到了Meta的參考實(shí)現(xiàn)、演示和應(yīng)用程序中,開源
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、猛了!Meta震撼發(fā)布Llama3.2視覺方面吊打所有閉源模型?Meta在其年度MetaConnect2024大會上發(fā)布了Llama3.2,旨在提升邊緣AI和視覺任務(wù)的能力。Molmo的成功歸功于高質(zhì)量訓(xùn)練數(shù)據(jù)和多樣性,展現(xiàn)出色的多模態(tài)交互能力。
阿里巴巴官宣了史上最大規(guī)模的開源發(fā)布,推出了基礎(chǔ)模型Qwen2.5、專用于編碼Qwen2.5-Coder和數(shù)學(xué)的Qwen2.5-Math。這三大類模型一共有10多個版本,包括0.5B、1.5B、3B、7B、14B、32B和72B,適用于個人、企業(yè)以及移動端、PC等不同人群不同業(yè)務(wù)場景的模型。同時對系統(tǒng)提示的多樣性更具彈性,增強(qiáng)了聊天機(jī)器人的角色扮演實(shí)施和條件設(shè)置。
開源大模型社區(qū)再次「熱鬧」了起來,主角是AI寫作初創(chuàng)公司HyperWrite開發(fā)的新模型Reflection70B。它的底層模型建立在MetaLlama3.170BInstruct上,并使用原始的Llamachat格式,確保了與現(xiàn)有工具和pipeline的兼容性。至于重新訓(xùn)練后的Reflection70B表現(xiàn)如何?我們拭目以待。
【新智元導(dǎo)讀】誕生一年半,Llama家族早已穩(wěn)坐開源界頭把交椅。最新報告稱,Llama全球下載量近3.5億,是去年同期的10倍。MindsDB簡化了數(shù)據(jù)源和AI/ML工具之間的連接,自動化工作流程以創(chuàng)建定制的AI系統(tǒng)。
開源大模型的標(biāo)桿Llama3,居然都「被閉源」了。開源再次成為了人們討論的話題。希望新的定義,能夠進(jìn)一步推動大模型領(lǐng)域的技術(shù)創(chuàng)新。
【新智元導(dǎo)讀】微調(diào)的所有門道,都在這里了。一旦決定進(jìn)行微調(diào),Llama微調(diào)指南提供了一個良好的起點(diǎn)。
Meta發(fā)布了Llama3.1系列模型,其中包括Meta迄今為止最大的405B模型,以及兩個較小的模型,參數(shù)量分別為700億和80億。Llama3.1被認(rèn)為是引領(lǐng)了開源新時代。要在NVIDIANeMo中使用Llama-3.1的SDG微調(diào),可參閱GitHub上的/sdg-law-title-generation部分。
【新智元導(dǎo)讀】最近的論文表明,LLM等生成模型可以通過搜索來擴(kuò)展,并實(shí)現(xiàn)非常顯著的性能提升。另一個復(fù)現(xiàn)實(shí)驗也發(fā)現(xiàn),讓參數(shù)量僅8B的Llama3.1模型搜索100次,即可在Python代碼生成任務(wù)上達(dá)到GPT-4o同等水平。為達(dá)到這個目的,可重復(fù)數(shù)字環(huán)境中的agent似乎是一個有前景的方向。
把Llama3.1405B和Claude3超大杯Opus雙雙送進(jìn)小黑屋,你猜怎么著——Llama把Claude整得精神崩潰了,Claude明確拒絕繼續(xù)聊天要再被LlamaPUA的那種。在一場AI和AI對話的安全詞模擬實(shí)驗中,X上的這位人類監(jiān)督者記錄下了一出好戲。不過也有網(wǎng)友表示,這里面肯定加了很多系統(tǒng)提示詞很難評emmm。
馬斯克19天建成由10萬塊H100串聯(lián)的世界最大超算,已全力投入Grok3的訓(xùn)練中。外媒爆料稱,OpenAI和微軟聯(lián)手打造的下一個超算集群,將由10萬塊GB200組成。
【新智元導(dǎo)讀】Meta、UC伯克利、NYU共同提出元獎勵語言模型,給「超級對齊」指條明路:讓AI自己當(dāng)裁判,自我改進(jìn)對齊,效果秒殺自我獎勵模型。LLM對數(shù)據(jù)的大量消耗,不僅體現(xiàn)在預(yù)訓(xùn)練語料上體現(xiàn)在RLHF、DPO等對齊階段。研究結(jié)果提供了有力的證據(jù),證明無需任何人類反饋的自我改進(jìn)模型是實(shí)現(xiàn)超級對齊的一個有前途的方向。
Meta發(fā)布Llama3.1405B,開放權(quán)重大模型的性能表現(xiàn)首次與業(yè)內(nèi)頂級封閉大模型比肩,AI行業(yè)似乎正走向一個關(guān)鍵的分叉點(diǎn)。扎克伯格親自撰文,堅定表明「開源AI即未來」,再次將開源與封閉的爭論推向舞臺中央。他專注于AI開源社區(qū)的運(yùn)營管理,包括MindSpore、ONNX、Kubeflow等AI開源項目以及openEuler、openGauss等操作系統(tǒng)及數(shù)據(jù)庫開源項目,對AI開源生態(tài)發(fā)展趨勢有著深刻理解,并在IEEEIC
繼分不清9.11和9.9哪個大以后,大模型又“集體失智”了!數(shù)不對單詞“Strawberry”中有幾個“r”,再次引起一片討論。GPT-4o不僅錯了還很自信。最后正如網(wǎng)友所說,希望OpenAI等大模型公司,都能在下個版本中解決這個問題。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、最強(qiáng)開源模型來了!Llama3.1以405B參數(shù)領(lǐng)先GPT-4o在人工智能的世界里,開源與閉源的較量從未停歇。整體業(yè)務(wù)增長勢頭良好,展望未來發(fā)展?jié)摿薮蟆?/p>
Meta-Llama-3.1-8B簡介Meta-Llama-3.1-8B是一款多語言大型語言模型,包含8B大小的版本,支持8種語言,專為多語言對話用例優(yōu)化,并在行業(yè)基準(zhǔn)測試中表現(xiàn)優(yōu)異。它采用自回歸語言模型,使用優(yōu)化的Transformer架構(gòu),并通過監(jiān)督式微調(diào)和強(qiáng)化學(xué)習(xí)結(jié)合人類反饋來提高模型的有用性和安全性。通過AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
Meta-Llama-3.1-70B是什么?Meta-Llama-3.1-70B是Meta公司推出的大型語言模型,擁有70億個參數(shù),支持8種語言的文本生成。您可以通過我們的AI產(chǎn)品庫輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
探索MetaLlama3.1-405B能為你帶來哪些改變?yōu)槭裁催x擇MetaLlama3.1-405B?MetaLlama3.1-405B不僅僅是一款產(chǎn)品——它是一項革命性的技術(shù),致力于提供大型多語言預(yù)訓(xùn)練語言模型,以滿足自然語言處理研究人員、軟件開發(fā)者、教育工作者和企業(yè)用戶的需求。通過AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
LIama3.1正式發(fā)布,登上大模型王座!在150多個基準(zhǔn)測試集中,405B版本的表現(xiàn)追平甚至超越了現(xiàn)有SOTA模型GPT-4o和Claude3.5Sonnet。最強(qiáng)開源模型即最強(qiáng)模型。我希望你能加入我們的旅程,將人工智能的好處帶給世界上的每個人。
Llama3.1簡介Llama3.1是MetaAI推出的最新一代大型語言模型,具有128K的上下文長度擴(kuò)展、支持八種語言,并首次開源了405B參數(shù)級別的前沿AI模型。它為開發(fā)者和技術(shù)研究者提供了強(qiáng)大的支持,無論是需要處理大量文本數(shù)據(jù)的編程助手是希望構(gòu)建多語言對話系統(tǒng)的開發(fā)者,Llama3.1都能提供最先進(jìn)的能力。通過AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
Llama3.1是什么?Llama3.1是MetaAI推出的最新一代大型語言模型,具有128K的上下文長度擴(kuò)展、支持八種語言,并首次開源了405B參數(shù)級別的前沿AI模型。如果您想了解更多類似產(chǎn)品,請訪問AIbase,我們將為您提供智能搜索問答功能,幫助您查找相關(guān)的AI應(yīng)用。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、震驚AI界!14、微軟研究院推AI框架E5-V:用文本對的單模態(tài)訓(xùn)練簡化多模態(tài)學(xué)習(xí)降低成本微軟研究院與北京航空航天大學(xué)聯(lián)合推出的E5-V框架通過單模態(tài)訓(xùn)練簡化多模態(tài)學(xué)習(xí),降低成本,在多個任務(wù)中展現(xiàn)出優(yōu)異性能,代表了多模態(tài)學(xué)習(xí)的重大進(jìn)步。
Llama3.1終于現(xiàn)身了,不過出處卻不是Meta官方。Reddit上新版Llama大模型泄露的消息遭到了瘋傳,除了基礎(chǔ)模型包括8B、70B和最大參數(shù)的405B的基準(zhǔn)測試結(jié)果。在部署Llama3.1模型的任何應(yīng)用之前,開發(fā)人員應(yīng)針對模型的具體應(yīng)用進(jìn)行安全測試和微調(diào)。
7月23日凌晨,有人爆料,Meta的Llama3.1-405B評測數(shù)據(jù)遭遇泄漏,明天可能會發(fā)布Llama3系列中最大的參數(shù)模型,同時還會發(fā)布一個Llama3.1-70B版本。這也是在3.0版本基礎(chǔ)之上進(jìn)行了功能迭代,即便是70B的基礎(chǔ)模型的性能也超過了GPT-4o。期待一波明天,看看Meta還能整啥花活。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、獨(dú)立開發(fā)者狂喜!這一方法通過智能數(shù)據(jù)批次篩選,優(yōu)化了訓(xùn)練效率和效果,為人工智能領(lǐng)域帶來重大突破。
【新智元導(dǎo)讀】來自佐治亞理工學(xué)院和英偉達(dá)的兩名華人學(xué)者帶隊提出了名為RankRAG的微調(diào)框架,簡化了原本需要多個模型的復(fù)雜的RAG流水線,用微調(diào)的方法交給同一個LLM完成,結(jié)果同時實(shí)現(xiàn)了模型在RAG任務(wù)上的性能提升。在需要大量事實(shí)知識的文本生成任務(wù)中,RAG成為了常用的LLM部署技巧。值得一提的是,本篇論文對標(biāo)的基準(zhǔn)方法ChatQA也是WeiPing之前的研究。
導(dǎo)讀:時隔4個月上新的Gemma2模型在LMSYSChatbotArena的排行上,以27B的參數(shù)擊敗了許多更大規(guī)模的模型,甚至超過了70B的Llama-3-Instruct,成為開源模型的性能第一!谷歌出手,果然非同凡響。Gemma2上周剛剛發(fā)布,就在LMSYS競技場上取得了亮眼的成績?!箍磥碓诨鶞?zhǔn)測試領(lǐng)域,重復(fù)的歷史總在不斷上演那個金句也總是適用——「當(dāng)一個衡量標(biāo)準(zhǔn)成為目標(biāo)時,它就不再是一個好的衡量標(biāo)準(zhǔn)了
本周國內(nèi)最受關(guān)注的AI盛事,今日啟幕?;顒右?guī)格之高,沒有哪個關(guān)心AI技術(shù)發(fā)展的人能不為之吸引——Sora團(tuán)隊負(fù)責(zé)人AdityaRamesh與DiT作者謝賽寧同臺交流,李開復(fù)與張亞勤爐邊對話,Llama2/3作者ThomasScialom,王小川、楊植麟等最受關(guān)注AI創(chuàng)業(yè)者……也都現(xiàn)場亮相。在探討多模態(tài)大模型、AGI的全體大會之外,今年的智源大會依然圍繞大家最關(guān)注的前沿技術(shù)問題,設(shè)置了大模型產(chǎn)業(yè)技?