11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
AI編程模型的開(kāi)源王座易主了!Qwen2.5-Coder-32B正式發(fā)布,霸氣拿下多個(gè)主流基準(zhǔn)測(cè)試SOTA,徹底登上全球最強(qiáng)開(kāi)源編程模型寶座。更重要的是,在代碼能力的12個(gè)主流基準(zhǔn)上,Qwen2.5-Coder-32B與GPT-4o對(duì)決,斬獲9勝,一舉掀翻閉源編程模型的絕對(duì)統(tǒng)治??梢云诖幌聗關(guān)于Qwen2.5-Coder的更多信息,可直接通過(guò)下方鏈接了解。
一篇文章在推特上爆火,利用純提示方法讓普通LLM搖身一變,成為具備復(fù)雜推理能力的OpenAIo1。OpenAIo1正式登場(chǎng)。組織可以使用較小的開(kāi)源模型來(lái)替代GPT-4o等成本較高的模型,用于需要復(fù)雜推理能力來(lái)解決的任務(wù)。
近日,摩爾線(xiàn)程上線(xiàn)了大語(yǔ)言模型高速推理框架開(kāi)源項(xiàng)目vLLM的MUSA移植版本,為開(kāi)發(fā)者提供基于摩爾線(xiàn)程全功能GPU進(jìn)行開(kāi)源項(xiàng)目MUSA移植的范例。摩爾線(xiàn)程表示,正努力圍繞自主研發(fā)的統(tǒng)一系統(tǒng)架構(gòu)GPU、MUSA軟件平臺(tái),構(gòu)建完善好用的MUSA應(yīng)用生態(tài)。摩爾線(xiàn)程通過(guò)MUSA軟件棧對(duì)CUDA軟件棧接口兼容,大幅提升了應(yīng)用移植的效率,縮短了開(kāi)發(fā)周期提供MUSIFY自動(dòng)代碼移植工具等一系列實(shí)用工具和腳本。
【新智元導(dǎo)讀】北京大學(xué)的研究人員開(kāi)發(fā)了一種新型多模態(tài)框架FakeShield,能夠檢測(cè)圖像偽造、定位篡改區(qū)域,并提供基于像素和圖像語(yǔ)義錯(cuò)誤的合理解釋?zhuān)梢蕴岣邎D像偽造檢測(cè)的可解釋性和泛化能力。隨著生成式人工智能的迅猛發(fā)展,圖像編輯與合成技術(shù)變得愈加成熟與普及。表3:FakeShield與主流IFDL方法的定位性能比較另外,圖4的主觀(guān)結(jié)果對(duì)比也表明,F(xiàn)akeShield能夠生成更加?
大模型的應(yīng)用歷來(lái)受幻覺(jué)所擾。這個(gè)幻覺(jué)可以指代LLM產(chǎn)生的任何類(lèi)型的錯(cuò)誤:事實(shí)不準(zhǔn)確、偏見(jiàn)、常識(shí)推理失敗等等。探針可以有效地識(shí)別正確答案的事實(shí)表明,LLM的內(nèi)部編碼與其外部行為之間存在重大脫節(jié):即使模型編碼了哪個(gè)答案是正確的信息,它在實(shí)踐中仍然可能生成錯(cuò)誤的答案。
【新智元導(dǎo)讀】最近,大模型訓(xùn)練遭惡意攻擊事件已經(jīng)刷屏了。Anthropic也發(fā)布了一篇論文,探討了前沿模型的巨大破壞力,他們發(fā)現(xiàn):模型遇到危險(xiǎn)任務(wù)時(shí)會(huì)隱藏真實(shí)能力會(huì)在代碼庫(kù)中巧妙地插入bug,躲過(guò)LLM和人類(lèi)「檢查官」的追蹤!就在昨天,某大廠(chǎng)模型訓(xùn)練遭入侵的事件,驚動(dòng)了整個(gè)AI圈。隨著AI模型能力繼續(xù)提升,這些評(píng)估和緩解措施還夠用嗎?Anthropic研究者也表示,希望其他AI研究者和開(kāi)發(fā)者都能加入改進(jìn)這些評(píng)估的行列。
【新智元導(dǎo)讀】1%合成數(shù)據(jù),就能讓模型瞬間崩潰!來(lái)自Meta、NYU等機(jī)構(gòu)團(tuán)隊(duì)證實(shí),「微量」合成數(shù)據(jù)便讓LLM弱不可堪。參數(shù)規(guī)模越大,模型崩潰越嚴(yán)重。JuliaKempeJuliaKempe是紐約大學(xué)數(shù)據(jù)科學(xué)中心和Courant數(shù)學(xué)科學(xué)研究所計(jì)算機(jī)科學(xué)、數(shù)學(xué)和數(shù)據(jù)科學(xué)的銀牌教授,也是MetaFair的客座高級(jí)研究員。
近日,蘋(píng)果公司的AI研究團(tuán)隊(duì)發(fā)表了一篇題為UnderstandingtheLimitationsofLargeLanguageModelsinMathematicalReasoning”的論文,揭示了大型語(yǔ)言模型在數(shù)學(xué)推理方面的顯著局限性。盡管這些模型在生成人類(lèi)水平的文本方面表現(xiàn)出色,但當(dāng)處理簡(jiǎn)單的數(shù)學(xué)問(wèn)題時(shí),即使問(wèn)題僅進(jìn)行了微小的改動(dòng),如添加無(wú)關(guān)信息,模型的表現(xiàn)也會(huì)急劇下降。雖然LLM在許多領(lǐng)域表現(xiàn)優(yōu)異,但其推理能力仍有待改進(jìn)。
【新智元導(dǎo)讀】PlaygroundResearch推出了新一代文本到圖像模型PGv3,具備240億參數(shù)量,采用深度融合的大型語(yǔ)言模型,實(shí)現(xiàn)了在圖形設(shè)計(jì)和遵循文本提示指令上甚至超越了人類(lèi)設(shè)計(jì)師,同時(shí)支持精確的RGB顏色控制和多語(yǔ)言識(shí)別。自去年以來(lái),文本到圖像生成模型取得了巨大進(jìn)展,模型的架構(gòu)從傳統(tǒng)的基于UNet逐漸轉(zhuǎn)變?yōu)榛赥ransformer的模型。多語(yǔ)言能力得益于語(yǔ)言模型天生能夠理解?
【新智元導(dǎo)讀】LLM不會(huì)規(guī)劃,大推理模型o1可以嗎?ASU團(tuán)隊(duì)最新研究發(fā)現(xiàn),o1-preview推理規(guī)劃能力是所有模型之最,但仍未觸及天花板。團(tuán)隊(duì)希望這份研究報(bào)告能夠很好地展示LLM和LRM的規(guī)劃能力,并為如何切實(shí)評(píng)估它們提供有用的建議。
大語(yǔ)言模型還能向上突破,OpenAI再次證明了自己的實(shí)力。北京時(shí)間9月13日午夜,OpenAI正式公開(kāi)一系列全新AI大模型,旨在專(zhuān)門(mén)解決難題?!赋诵碌膐1系列模型,我們計(jì)劃繼續(xù)開(kāi)發(fā)和發(fā)布我們的GPT系列模型。
圖源:上海交通大學(xué)特聘教授俞勇朋友圈。Hi!大家好,說(shuō)我是計(jì)算機(jī)杰出校友有點(diǎn)不敢當(dāng)。上一代吃到了時(shí)代紅利到了你們這一代,時(shí)代紅利還是有的,只是需要付出更多努力。
【新智元導(dǎo)讀】MITCSAIL的研究人員發(fā)現(xiàn),LLM的「內(nèi)心深處」已經(jīng)發(fā)展出了對(duì)現(xiàn)實(shí)的模擬,模型對(duì)語(yǔ)言和世界的理解,絕不僅僅是簡(jiǎn)單的「鸚鵡學(xué)舌」。LLM會(huì)比今天更深層地理解語(yǔ)言?!笇?shí)驗(yàn)設(shè)計(jì)很優(yōu)雅,他們的發(fā)現(xiàn)也很樂(lè)觀(guān),這表明也許LLM可以更深入地了解語(yǔ)言的『含義』。
NicholasCarlini是谷歌DeepMind的一位研究科學(xué)家,近日,他撰寫(xiě)了一篇長(zhǎng)達(dá)8萬(wàn)字的文章,介紹自己是怎么使用AI的。他詳細(xì)列舉了自己日常使用AI的50個(gè)實(shí)例說(shuō)這些只是他所有AI應(yīng)用的不到2%。作為一個(gè)擁有20年編程經(jīng)驗(yàn)的科學(xué)家,Nicholas利用LLM顯著提高了自己的工作效率,他相信,其他人也可以從中受益。
【新智元導(dǎo)讀】Meta、UC伯克利、NYU共同提出元獎(jiǎng)勵(lì)語(yǔ)言模型,給「超級(jí)對(duì)齊」指條明路:讓AI自己當(dāng)裁判,自我改進(jìn)對(duì)齊,效果秒殺自我獎(jiǎng)勵(lì)模型。LLM對(duì)數(shù)據(jù)的大量消耗,不僅體現(xiàn)在預(yù)訓(xùn)練語(yǔ)料上體現(xiàn)在RLHF、DPO等對(duì)齊階段。研究結(jié)果提供了有力的證據(jù),證明無(wú)需任何人類(lèi)反饋的自我改進(jìn)模型是實(shí)現(xiàn)超級(jí)對(duì)齊的一個(gè)有前途的方向。
【新智元導(dǎo)讀】LLM能否解決「狼-山羊-卷心菜」經(jīng)典過(guò)河難題?最近,菲爾茲獎(jiǎng)得主TimothyGowers分享了實(shí)測(cè)GPT-4o的過(guò)程,模型在最簡(jiǎn)單的題目上竟然做錯(cuò)了,甚至網(wǎng)友們發(fā)現(xiàn),就連Claude3.5也無(wú)法幸免。在經(jīng)典的「狼-山羊-卷心菜」過(guò)河問(wèn)題上,如今所有的LLM都失敗了!幾天前,菲爾茲獎(jiǎng)得主、劍橋大學(xué)研究主任TimothyGowers直接拿GPT-4o開(kāi)刀,去解決動(dòng)物過(guò)河難題。LLM的未來(lái)究竟走向何處?最大的未知變量也許就在于,我們是否還能發(fā)現(xiàn)類(lèi)似思維鏈這種解鎖模型性能的「大殺器」了。
Meta搞了個(gè)很牛的LLMCompiler,幫助程序員更高效地寫(xiě)代碼。三大AI巨頭OpenAI、Google、Meta組團(tuán)發(fā)布自家大模型最新研究成果——OpenAI推出基于GPT-4訓(xùn)練的專(zhuān)門(mén)找bug的新模型CriticGPT,谷歌開(kāi)源9B、27B版Gemma2Meta則拿出了一項(xiàng)最新的人工智能突破——LLMCompiler。對(duì)于某些應(yīng)用,LLM生成可以被限制在正則表達(dá)式內(nèi),或與自動(dòng)驗(yàn)證相結(jié)合以確保正確性。
一直以來(lái)大模型欺騙人類(lèi),早已不是什么新鮮事了。最新研究竟發(fā)現(xiàn),未經(jīng)明確訓(xùn)練的LLM不僅會(huì)阿諛?lè)畛?,甚至入侵自己系統(tǒng)修改代碼獲得獎(jiǎng)勵(lì)。這種行為的潛在風(fēng)險(xiǎn)是巨大的,因此必須透徹理解它的根源,并采取有效的訓(xùn)練方法和預(yù)防措施來(lái)約束和管控這種行為,確保人工智能系統(tǒng)的安全性和可控性。
【新智元導(dǎo)讀】訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量,對(duì)LLM性能的重要性已經(jīng)是不言自明的事實(shí)。EpochAI近期的一篇論文卻給正在瘋狂擴(kuò)展的AI模型們潑了冷水,他們預(yù)測(cè),互聯(lián)網(wǎng)上可用的人類(lèi)文本數(shù)據(jù)將在四年后,即2028年耗盡。「最大的不確定性在于,你會(huì)看到什么樣的技術(shù)突破。
蘋(píng)果一出手,在手機(jī)等移動(dòng)設(shè)備上部署大模型不可避免地成為行業(yè)關(guān)注焦點(diǎn)。目前在移動(dòng)設(shè)備上運(yùn)行的模型相對(duì)較小,并且消耗大量?jī)?nèi)存,這在很大程度上限制了其應(yīng)用場(chǎng)景。如果PowerInfer-2.0能夠與手機(jī)廠(chǎng)商進(jìn)一步緊密合作,相信可以加速相關(guān)技術(shù)走出實(shí)驗(yàn)室,落地到各種真實(shí)場(chǎng)景。
2024年6月11日,莫斯科——跨國(guó)科技公司Yandex最近推出了YaFSDP,這是一種用于訓(xùn)練大型語(yǔ)言模型的開(kāi)源方法。YaFSDP是目前最有效的公開(kāi)可用工具,用于增強(qiáng)GPU通信并減少LLM訓(xùn)練中的內(nèi)存使用量,與FSDP相比,其訓(xùn)練速度提升最高可達(dá)26%,具體取決于架構(gòu)和參數(shù)數(shù)量。Petals:是一個(gè)旨在簡(jiǎn)化LLM訓(xùn)練和微調(diào)過(guò)程的庫(kù),由YandexResearch、HSE大學(xué)、華盛頓大學(xué)、HuggingFace、巴黎-薩克雷高等經(jīng)濟(jì)學(xué)院和Yandex數(shù)據(jù)分析學(xué)院合作開(kāi)發(fā)。
【新智元導(dǎo)讀】在基準(zhǔn)測(cè)試上頻頻屠榜的大模型們,竟然被一道簡(jiǎn)單的邏輯推理題打得全軍覆沒(méi)?最近,研究機(jī)構(gòu)LAION的幾位作者共同發(fā)表了一篇文章,以「愛(ài)麗絲夢(mèng)游仙境」為啟發(fā)涉及了一系列簡(jiǎn)單的推理問(wèn)題,揭示了LLM基準(zhǔn)測(cè)試的盲區(qū)。一道簡(jiǎn)單的邏輯問(wèn)題,竟讓幾乎所有的LLM全軍覆沒(méi)?對(duì)于人類(lèi)來(lái)說(shuō),這個(gè)名為「愛(ài)麗絲夢(mèng)游仙境」的測(cè)試并不算很難——「愛(ài)麗絲有N個(gè)兄弟,
【新智元導(dǎo)讀】最近,德國(guó)研究科學(xué)家發(fā)表的PANS論文揭示了一個(gè)令人擔(dān)憂(yōu)的現(xiàn)象:LLM已經(jīng)涌現(xiàn)出「欺騙能力」,它們可以理解并誘導(dǎo)欺騙策。相比前幾年的LLM,更先進(jìn)的GPT-4、ChatGPT等模型在欺騙任務(wù)中的表現(xiàn)顯著提升?!埂冈噲D用人類(lèi)意圖來(lái)解釋模型行為,是一種范疇誤用。
IBM研究發(fā)布了一項(xiàng)突破性的LLM基準(zhǔn)測(cè)試方法,承諾將計(jì)算成本降低高達(dá)99%。傳統(tǒng)的基準(zhǔn)測(cè)試,如斯坦福的HELM,需要耗費(fèi)超過(guò)一天的時(shí)間,并且成本高達(dá)1萬(wàn)美元,這對(duì)開(kāi)發(fā)人員和研究人員來(lái)說(shuō)是一個(gè)昂貴的過(guò)程?!盜BM的高效基準(zhǔn)測(cè)試方法代表了人工智能領(lǐng)域的重大進(jìn)步,為評(píng)估先進(jìn)語(yǔ)言模型所需的不斷增加的成本和資源需求提供了實(shí)際解決方案。
SignLLM是一個(gè)創(chuàng)新的多語(yǔ)言手語(yǔ)模型,它具有通過(guò)文字描述生成手語(yǔ)視頻的能力。這項(xiàng)技術(shù)對(duì)于聽(tīng)力障礙者來(lái)說(shuō)是一個(gè)巨大的進(jìn)步,因?yàn)樗軌蛱峁┮环N新的溝通方式。通過(guò)這種模型,可以更好地服務(wù)于多元文化和語(yǔ)言社區(qū),促進(jìn)信息的無(wú)障礙交流。
站長(zhǎng)之家5月28日消息近日,一款名為SignLLM的多語(yǔ)言手語(yǔ)模型引起了廣泛關(guān)注。這是第一個(gè)可以從輸入文本生成手語(yǔ)手勢(shì)的模型。希望這一技術(shù)能為更多人提供便利,讓更多人受益于手語(yǔ)交流的便捷性和多樣性。
【新智元導(dǎo)讀】近日,西交微軟北大聯(lián)合提出信息密集型訓(xùn)練大法,使用純數(shù)據(jù)驅(qū)動(dòng)的方式,矯正LLM訓(xùn)練過(guò)程產(chǎn)生的偏見(jiàn),在一定程度上治療了大語(yǔ)言模型丟失中間信息的問(wèn)題。辛辛苦苦給大語(yǔ)言模型輸入了一大堆提示,它卻只記住了開(kāi)頭和結(jié)尾?這個(gè)現(xiàn)象叫做LLM的中間迷失,是大模型當(dāng)前仍面臨的最大挑戰(zhàn)之一。以寬松的匹配準(zhǔn)確性作為衡量標(biāo)準(zhǔn):如果響應(yīng)中的標(biāo)簽或描述完全匹配,則給出1分,否則為0分。
【新智元導(dǎo)讀】真正與GPT-4o齊頭并進(jìn)的國(guó)產(chǎn)大模型來(lái)了!剛剛,LMSYS揭開(kāi)最新榜單,黑馬Yi-Large在中文分榜上與GPT-4o并列第一在總榜上位列世界第七,緊追國(guó)際第一陣營(yíng),并登上了國(guó)內(nèi)大模型盲測(cè)榜首。一個(gè)名為「im-also-a-good-gpt2-chatbot」的神秘模型突然現(xiàn)身大模型競(jìng)技場(chǎng)ChatbotArena,排名直接超過(guò)GPT-4-Turbo、Gemini1.5Pro、Claude3Opus、Llama3-70B等各家國(guó)際大廠(chǎng)的當(dāng)家基座模型。那些選擇作?
RefuelAI最近宣布推出兩個(gè)新版本的大型語(yǔ)言模型,RefuelLLM-2和RefuelLLM-2-small,這兩個(gè)模型專(zhuān)為數(shù)據(jù)標(biāo)注、清洗和豐富任務(wù)設(shè)計(jì),旨在提高處理大規(guī)模數(shù)據(jù)集的效率。RefuelLLM-2的主要特點(diǎn)包括:自動(dòng)化數(shù)據(jù)標(biāo)注:能夠自動(dòng)識(shí)別和標(biāo)記數(shù)據(jù)中的關(guān)鍵信息,如分類(lèi)數(shù)據(jù)和解析特定屬性。RefuelAI的這一創(chuàng)新為數(shù)據(jù)標(biāo)注和清洗領(lǐng)域帶來(lái)了新的解決方案,有助于自動(dòng)化和優(yōu)化大規(guī)模數(shù)據(jù)處理流程。
研究人員來(lái)自伊利諾伊大學(xué)厄巴納-香檳分校和微軟提出了一種名為FastGen的高效技術(shù),通過(guò)使用輕量級(jí)模型分析和自適應(yīng)鍵值緩來(lái)提高LLM的推理效率不會(huì)降低可見(jiàn)質(zhì)量。FastGen通過(guò)自適應(yīng)的鍵值緩存構(gòu)造來(lái)減少生成推理過(guò)程中的GPU內(nèi)存使用量。未來(lái)的工作包括將FastGen與其他模型壓縮方法進(jìn)行整合。