11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
微軟研究發(fā)布了名為L(zhǎng)LMLingua-2的模型,用于任務(wù)不可知的提示壓縮。該模型通過(guò)智能地去除長(zhǎng)提示中的不必要詞語(yǔ)或標(biāo)記,同時(shí)保留關(guān)鍵信息,使得提示長(zhǎng)度可減少至原長(zhǎng)度的20%,從降低成本和延遲。該公司認(rèn)為這是一個(gè)有前途的方法,可以通過(guò)壓縮提示實(shí)現(xiàn)更好的泛化能力和效率。
微軟的研究團(tuán)隊(duì)開(kāi)發(fā)了一種名為L(zhǎng)LMLingua的獨(dú)特粗細(xì)壓縮技術(shù),旨在解決大型語(yǔ)言模型中長(zhǎng)提示帶來(lái)的問(wèn)題。LLMs以其強(qiáng)大的泛化和推理能力顯著推動(dòng)了人工智能領(lǐng)域的發(fā)展,展示了自然語(yǔ)言處理、自然語(yǔ)言生成、計(jì)算機(jī)視覺(jué)等方面的能力。該方法表現(xiàn)出色,并提供了一種改善LLM應(yīng)用程序的效果和可負(fù)擔(dān)性的有用方式。
【新智元導(dǎo)讀】訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量,對(duì)LLM性能的重要性已經(jīng)是不言自明的事實(shí)。EpochAI近期的一篇論文卻給正在瘋狂擴(kuò)展的AI模型們潑了冷水,他們預(yù)測(cè),互聯(lián)網(wǎng)上可用的人類(lèi)文本數(shù)據(jù)將在四年后,即2028年耗盡?!缸畲蟮牟淮_定性在于,你會(huì)看到什么樣的技術(shù)突破。
PerplexityAI,一家創(chuàng)新的人工智能初創(chuàng)公司,近日推出了一項(xiàng)能夠改變信息檢索系統(tǒng)的解決方案。該公司推出了兩款新的大語(yǔ)言模型,分別是pplx-7b-online和pplx-70b-online,標(biāo)志著首次通過(guò)API公開(kāi)訪問(wèn)在線LLMs。通過(guò)API引入pplx-7b-online和pplx-70b-online模型解決了現(xiàn)有離線LLMs的局限性,并展示了在提供準(zhǔn)確、實(shí)時(shí)和真實(shí)信息方面的卓越性能。
在網(wǎng)站架構(gòu)設(shè)計(jì)中,大家一定對(duì) LAMP (Linux Apache Mysql Php) 不陌生。LAMP確實(shí)是一個(gè)非常優(yōu)秀的架構(gòu),秉承著自由,開(kāi)放,高效,易用的設(shè)計(jì)理念。但是,本文不打算探討LAMP,網(wǎng)上有很多介紹LAMP的資料。
文章標(biāo)題:用GkrellM監(jiān)測(cè)Linux網(wǎng)絡(luò)服務(wù)器。Linux是中國(guó)站長(zhǎng)站的一個(gè)技術(shù)頻道。包含桌面應(yīng)用,Linux系統(tǒng)管理,內(nèi)核研究,嵌入式系統(tǒng)和開(kāi)源等一些基本分類(lèi)
【新智元導(dǎo)讀】北京大學(xué)的研究人員開(kāi)發(fā)了一種新型多模態(tài)框架FakeShield,能夠檢測(cè)圖像偽造、定位篡改區(qū)域,并提供基于像素和圖像語(yǔ)義錯(cuò)誤的合理解釋?zhuān)梢蕴岣邎D像偽造檢測(cè)的可解釋性和泛化能力。隨著生成式人工智能的迅猛發(fā)展,圖像編輯與合成技術(shù)變得愈加成熟與普及。表3:FakeShield與主流IFDL方法的定位性能比較另外,圖4的主觀結(jié)果對(duì)比也表明,F(xiàn)akeShield能夠生成更加?
大模型的應(yīng)用歷來(lái)受幻覺(jué)所擾。這個(gè)幻覺(jué)可以指代LLM產(chǎn)生的任何類(lèi)型的錯(cuò)誤:事實(shí)不準(zhǔn)確、偏見(jiàn)、常識(shí)推理失敗等等。探針可以有效地識(shí)別正確答案的事實(shí)表明,LLM的內(nèi)部編碼與其外部行為之間存在重大脫節(jié):即使模型編碼了哪個(gè)答案是正確的信息,它在實(shí)踐中仍然可能生成錯(cuò)誤的答案。
【新智元導(dǎo)讀】最近,大模型訓(xùn)練遭惡意攻擊事件已經(jīng)刷屏了。Anthropic也發(fā)布了一篇論文,探討了前沿模型的巨大破壞力,他們發(fā)現(xiàn):模型遇到危險(xiǎn)任務(wù)時(shí)會(huì)隱藏真實(shí)能力會(huì)在代碼庫(kù)中巧妙地插入bug,躲過(guò)LLM和人類(lèi)「檢查官」的追蹤!就在昨天,某大廠模型訓(xùn)練遭入侵的事件,驚動(dòng)了整個(gè)AI圈。隨著AI模型能力繼續(xù)提升,這些評(píng)估和緩解措施還夠用嗎?Anthropic研究者也表示,希望其他AI研究者和開(kāi)發(fā)者都能加入改進(jìn)這些評(píng)估的行列。
【新智元導(dǎo)讀】1%合成數(shù)據(jù),就能讓模型瞬間崩潰!來(lái)自Meta、NYU等機(jī)構(gòu)團(tuán)隊(duì)證實(shí),「微量」合成數(shù)據(jù)便讓LLM弱不可堪。參數(shù)規(guī)模越大,模型崩潰越嚴(yán)重。JuliaKempeJuliaKempe是紐約大學(xué)數(shù)據(jù)科學(xué)中心和Courant數(shù)學(xué)科學(xué)研究所計(jì)算機(jī)科學(xué)、數(shù)學(xué)和數(shù)據(jù)科學(xué)的銀牌教授,也是MetaFair的客座高級(jí)研究員。
近日,蘋(píng)果公司的AI研究團(tuán)隊(duì)發(fā)表了一篇題為UnderstandingtheLimitationsofLargeLanguageModelsinMathematicalReasoning”的論文,揭示了大型語(yǔ)言模型在數(shù)學(xué)推理方面的顯著局限性。盡管這些模型在生成人類(lèi)水平的文本方面表現(xiàn)出色,但當(dāng)處理簡(jiǎn)單的數(shù)學(xué)問(wèn)題時(shí),即使問(wèn)題僅進(jìn)行了微小的改動(dòng),如添加無(wú)關(guān)信息,模型的表現(xiàn)也會(huì)急劇下降。雖然LLM在許多領(lǐng)域表現(xiàn)優(yōu)異,但其推理能力仍有待改進(jìn)。
【新智元導(dǎo)讀】PlaygroundResearch推出了新一代文本到圖像模型PGv3,具備240億參數(shù)量,采用深度融合的大型語(yǔ)言模型,實(shí)現(xiàn)了在圖形設(shè)計(jì)和遵循文本提示指令上甚至超越了人類(lèi)設(shè)計(jì)師,同時(shí)支持精確的RGB顏色控制和多語(yǔ)言識(shí)別。自去年以來(lái),文本到圖像生成模型取得了巨大進(jìn)展,模型的架構(gòu)從傳統(tǒng)的基于UNet逐漸轉(zhuǎn)變?yōu)榛赥ransformer的模型。多語(yǔ)言能力得益于語(yǔ)言模型天生能夠理解?
【新智元導(dǎo)讀】LLM不會(huì)規(guī)劃,大推理模型o1可以嗎?ASU團(tuán)隊(duì)最新研究發(fā)現(xiàn),o1-preview推理規(guī)劃能力是所有模型之最,但仍未觸及天花板。團(tuán)隊(duì)希望這份研究報(bào)告能夠很好地展示LLM和LRM的規(guī)劃能力,并為如何切實(shí)評(píng)估它們提供有用的建議。
大語(yǔ)言模型還能向上突破,OpenAI再次證明了自己的實(shí)力。北京時(shí)間9月13日午夜,OpenAI正式公開(kāi)一系列全新AI大模型,旨在專(zhuān)門(mén)解決難題?!赋诵碌膐1系列模型,我們計(jì)劃繼續(xù)開(kāi)發(fā)和發(fā)布我們的GPT系列模型。
圖源:上海交通大學(xué)特聘教授俞勇朋友圈。Hi!大家好,說(shuō)我是計(jì)算機(jī)杰出校友有點(diǎn)不敢當(dāng)。上一代吃到了時(shí)代紅利到了你們這一代,時(shí)代紅利還是有的,只是需要付出更多努力。
【新智元導(dǎo)讀】MITCSAIL的研究人員發(fā)現(xiàn),LLM的「內(nèi)心深處」已經(jīng)發(fā)展出了對(duì)現(xiàn)實(shí)的模擬,模型對(duì)語(yǔ)言和世界的理解,絕不僅僅是簡(jiǎn)單的「鸚鵡學(xué)舌」。LLM會(huì)比今天更深層地理解語(yǔ)言。「實(shí)驗(yàn)設(shè)計(jì)很優(yōu)雅,他們的發(fā)現(xiàn)也很樂(lè)觀,這表明也許LLM可以更深入地了解語(yǔ)言的『含義』。
NicholasCarlini是谷歌DeepMind的一位研究科學(xué)家,近日,他撰寫(xiě)了一篇長(zhǎng)達(dá)8萬(wàn)字的文章,介紹自己是怎么使用AI的。他詳細(xì)列舉了自己日常使用AI的50個(gè)實(shí)例說(shuō)這些只是他所有AI應(yīng)用的不到2%。作為一個(gè)擁有20年編程經(jīng)驗(yàn)的科學(xué)家,Nicholas利用LLM顯著提高了自己的工作效率,他相信,其他人也可以從中受益。
【新智元導(dǎo)讀】Meta、UC伯克利、NYU共同提出元獎(jiǎng)勵(lì)語(yǔ)言模型,給「超級(jí)對(duì)齊」指條明路:讓AI自己當(dāng)裁判,自我改進(jìn)對(duì)齊,效果秒殺自我獎(jiǎng)勵(lì)模型。LLM對(duì)數(shù)據(jù)的大量消耗,不僅體現(xiàn)在預(yù)訓(xùn)練語(yǔ)料上體現(xiàn)在RLHF、DPO等對(duì)齊階段。研究結(jié)果提供了有力的證據(jù),證明無(wú)需任何人類(lèi)反饋的自我改進(jìn)模型是實(shí)現(xiàn)超級(jí)對(duì)齊的一個(gè)有前途的方向。
【新智元導(dǎo)讀】LLM能否解決「狼-山羊-卷心菜」經(jīng)典過(guò)河難題?最近,菲爾茲獎(jiǎng)得主TimothyGowers分享了實(shí)測(cè)GPT-4o的過(guò)程,模型在最簡(jiǎn)單的題目上竟然做錯(cuò)了,甚至網(wǎng)友們發(fā)現(xiàn),就連Claude3.5也無(wú)法幸免。在經(jīng)典的「狼-山羊-卷心菜」過(guò)河問(wèn)題上,如今所有的LLM都失敗了!幾天前,菲爾茲獎(jiǎng)得主、劍橋大學(xué)研究主任TimothyGowers直接拿GPT-4o開(kāi)刀,去解決動(dòng)物過(guò)河難題。LLM的未來(lái)究竟走向何處?最大的未知變量也許就在于,我們是否還能發(fā)現(xiàn)類(lèi)似思維鏈這種解鎖模型性能的「大殺器」了。
Meta搞了個(gè)很牛的LLMCompiler,幫助程序員更高效地寫(xiě)代碼。三大AI巨頭OpenAI、Google、Meta組團(tuán)發(fā)布自家大模型最新研究成果——OpenAI推出基于GPT-4訓(xùn)練的專(zhuān)門(mén)找bug的新模型CriticGPT,谷歌開(kāi)源9B、27B版Gemma2Meta則拿出了一項(xiàng)最新的人工智能突破——LLMCompiler。對(duì)于某些應(yīng)用,LLM生成可以被限制在正則表達(dá)式內(nèi),或與自動(dòng)驗(yàn)證相結(jié)合以確保正確性。
一直以來(lái)大模型欺騙人類(lèi),早已不是什么新鮮事了。最新研究竟發(fā)現(xiàn),未經(jīng)明確訓(xùn)練的LLM不僅會(huì)阿諛?lè)畛?,甚至入侵自己系統(tǒng)修改代碼獲得獎(jiǎng)勵(lì)。這種行為的潛在風(fēng)險(xiǎn)是巨大的,因此必須透徹理解它的根源,并采取有效的訓(xùn)練方法和預(yù)防措施來(lái)約束和管控這種行為,確保人工智能系統(tǒng)的安全性和可控性。
蘋(píng)果一出手,在手機(jī)等移動(dòng)設(shè)備上部署大模型不可避免地成為行業(yè)關(guān)注焦點(diǎn)。目前在移動(dòng)設(shè)備上運(yùn)行的模型相對(duì)較小,并且消耗大量?jī)?nèi)存,這在很大程度上限制了其應(yīng)用場(chǎng)景。如果PowerInfer-2.0能夠與手機(jī)廠商進(jìn)一步緊密合作,相信可以加速相關(guān)技術(shù)走出實(shí)驗(yàn)室,落地到各種真實(shí)場(chǎng)景。
2024年6月11日,莫斯科——跨國(guó)科技公司Yandex最近推出了YaFSDP,這是一種用于訓(xùn)練大型語(yǔ)言模型的開(kāi)源方法。YaFSDP是目前最有效的公開(kāi)可用工具,用于增強(qiáng)GPU通信并減少LLM訓(xùn)練中的內(nèi)存使用量,與FSDP相比,其訓(xùn)練速度提升最高可達(dá)26%,具體取決于架構(gòu)和參數(shù)數(shù)量。Petals:是一個(gè)旨在簡(jiǎn)化LLM訓(xùn)練和微調(diào)過(guò)程的庫(kù),由YandexResearch、HSE大學(xué)、華盛頓大學(xué)、HuggingFace、巴黎-薩克雷高等經(jīng)濟(jì)學(xué)院和Yandex數(shù)據(jù)分析學(xué)院合作開(kāi)發(fā)。
【新智元導(dǎo)讀】在基準(zhǔn)測(cè)試上頻頻屠榜的大模型們,竟然被一道簡(jiǎn)單的邏輯推理題打得全軍覆沒(méi)?最近,研究機(jī)構(gòu)LAION的幾位作者共同發(fā)表了一篇文章,以「愛(ài)麗絲夢(mèng)游仙境」為啟發(fā)涉及了一系列簡(jiǎn)單的推理問(wèn)題,揭示了LLM基準(zhǔn)測(cè)試的盲區(qū)。一道簡(jiǎn)單的邏輯問(wèn)題,竟讓幾乎所有的LLM全軍覆沒(méi)?對(duì)于人類(lèi)來(lái)說(shuō),這個(gè)名為「愛(ài)麗絲夢(mèng)游仙境」的測(cè)試并不算很難——「愛(ài)麗絲有N個(gè)兄弟,
【新智元導(dǎo)讀】最近,德國(guó)研究科學(xué)家發(fā)表的PANS論文揭示了一個(gè)令人擔(dān)憂的現(xiàn)象:LLM已經(jīng)涌現(xiàn)出「欺騙能力」,它們可以理解并誘導(dǎo)欺騙策。相比前幾年的LLM,更先進(jìn)的GPT-4、ChatGPT等模型在欺騙任務(wù)中的表現(xiàn)顯著提升?!埂冈噲D用人類(lèi)意圖來(lái)解釋模型行為,是一種范疇誤用。
IBM研究發(fā)布了一項(xiàng)突破性的LLM基準(zhǔn)測(cè)試方法,承諾將計(jì)算成本降低高達(dá)99%。傳統(tǒng)的基準(zhǔn)測(cè)試,如斯坦福的HELM,需要耗費(fèi)超過(guò)一天的時(shí)間,并且成本高達(dá)1萬(wàn)美元,這對(duì)開(kāi)發(fā)人員和研究人員來(lái)說(shuō)是一個(gè)昂貴的過(guò)程。”IBM的高效基準(zhǔn)測(cè)試方法代表了人工智能領(lǐng)域的重大進(jìn)步,為評(píng)估先進(jìn)語(yǔ)言模型所需的不斷增加的成本和資源需求提供了實(shí)際解決方案。
SignLLM是一個(gè)創(chuàng)新的多語(yǔ)言手語(yǔ)模型,它具有通過(guò)文字描述生成手語(yǔ)視頻的能力。這項(xiàng)技術(shù)對(duì)于聽(tīng)力障礙者來(lái)說(shuō)是一個(gè)巨大的進(jìn)步,因?yàn)樗軌蛱峁┮环N新的溝通方式。通過(guò)這種模型,可以更好地服務(wù)于多元文化和語(yǔ)言社區(qū),促進(jìn)信息的無(wú)障礙交流。
站長(zhǎng)之家5月28日消息近日,一款名為SignLLM的多語(yǔ)言手語(yǔ)模型引起了廣泛關(guān)注。這是第一個(gè)可以從輸入文本生成手語(yǔ)手勢(shì)的模型。希望這一技術(shù)能為更多人提供便利,讓更多人受益于手語(yǔ)交流的便捷性和多樣性。
【新智元導(dǎo)讀】近日,西交微軟北大聯(lián)合提出信息密集型訓(xùn)練大法,使用純數(shù)據(jù)驅(qū)動(dòng)的方式,矯正LLM訓(xùn)練過(guò)程產(chǎn)生的偏見(jiàn),在一定程度上治療了大語(yǔ)言模型丟失中間信息的問(wèn)題。辛辛苦苦給大語(yǔ)言模型輸入了一大堆提示,它卻只記住了開(kāi)頭和結(jié)尾?這個(gè)現(xiàn)象叫做LLM的中間迷失,是大模型當(dāng)前仍面臨的最大挑戰(zhàn)之一。以寬松的匹配準(zhǔn)確性作為衡量標(biāo)準(zhǔn):如果響應(yīng)中的標(biāo)簽或描述完全匹配,則給出1分,否則為0分。
【新智元導(dǎo)讀】真正與GPT-4o齊頭并進(jìn)的國(guó)產(chǎn)大模型來(lái)了!剛剛,LMSYS揭開(kāi)最新榜單,黑馬Yi-Large在中文分榜上與GPT-4o并列第一在總榜上位列世界第七,緊追國(guó)際第一陣營(yíng),并登上了國(guó)內(nèi)大模型盲測(cè)榜首。一個(gè)名為「im-also-a-good-gpt2-chatbot」的神秘模型突然現(xiàn)身大模型競(jìng)技場(chǎng)ChatbotArena,排名直接超過(guò)GPT-4-Turbo、Gemini1.5Pro、Claude3Opus、Llama3-70B等各家國(guó)際大廠的當(dāng)家基座模型。那些選擇作?