11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
OpenAIo1的發(fā)布,再次給AI領(lǐng)域帶來(lái)了一場(chǎng)地震。o1能像人類(lèi)一樣「思考」復(fù)雜問(wèn)題,擁有優(yōu)秀的通用推理能力。從SambaNova的RDU開(kāi)始,人工智能領(lǐng)域可能正在翻開(kāi)全新的一頁(yè)。
9月26日,位于加利福尼亞帕洛阿爾托的SambaNovaSystems公司宣布推出一款革命性的新芯片,名為SN40L。這款芯片將為SambaNova的全棧大語(yǔ)言模型平臺(tái)SambaNovaSuite提供動(dòng)力,并具有革命性的內(nèi)部設(shè)計(jì):在內(nèi)部,它提供了密集和稀疏計(jì)算,同時(shí)包括大內(nèi)存和快速內(nèi)存,使其成為一款真正的“智能芯片”。還提供了推理優(yōu)化系統(tǒng),配備了3層數(shù)據(jù)流內(nèi)存,以實(shí)現(xiàn)高帶寬和高容量。
人工智能芯片初創(chuàng)公司SambaNovaSystems在周二推出了一款新的半導(dǎo)體芯片,旨在讓其客戶(hù)以更低的總成本使用更高質(zhì)量的人工智能模型。這家位于加利福尼亞州帕洛阿爾托的公司表示,SN40L芯片旨在運(yùn)行比OpenAI的ChatGPT高級(jí)版使用的大兩倍以上的模型。SambaNova的芯片由臺(tái)積電負(fù)責(zé)制造。
【新智元導(dǎo)讀】最近,7B小模型又成為了AI巨頭們競(jìng)相追趕的潮流。繼谷歌的Gemma27B后,Mistral今天又發(fā)布了兩個(gè)7B模型,分別是針對(duì)STEM學(xué)科的Mathstral,以及使用Mamaba架構(gòu)的代碼模型CodestralMamba。面對(duì)網(wǎng)友催更c(diǎn)odestralmamba,ollama也非常給力地表示:「已經(jīng)在弄了,稍安勿躁。
GameFi將區(qū)塊鏈技術(shù)與游戲產(chǎn)業(yè)相結(jié)合,利用加密貨幣和去中心化金融工具為玩家提供全新的游戲體驗(yàn)和經(jīng)濟(jì)激勵(lì)。在GameFi板塊中,加密貨幣不再只是游戲中的虛擬貨幣是真正的數(shù)字資產(chǎn),具有實(shí)際的價(jià)值和用途。匿名注冊(cè)可以保護(hù)客戶(hù)的隱私秒合約交易則使用戶(hù)能夠快速交易并提高交易效率。
谷歌發(fā)布了一項(xiàng)名為HyperDreamBooth的革命性模型訓(xùn)練方法,該方法在生成AI領(lǐng)域取得了顯著的進(jìn)步,尤其是在個(gè)性化模型訓(xùn)練方面。盡管這一技術(shù)具有突破性,谷歌并沒(méi)有計(jì)劃將其開(kāi)源。谷歌的這一貢獻(xiàn)為AI領(lǐng)域提供了新的可能性,同時(shí)也為未來(lái)的研究和應(yīng)用設(shè)定了新的標(biāo)準(zhǔn)。
【新智元導(dǎo)讀】在開(kāi)源社區(qū)引起「海嘯」的Mamba架構(gòu),再次卷土重來(lái)!這次,Mamba-2順利拿下ICML。通過(guò)統(tǒng)一SSM和注意力機(jī)制,Transformer和SSM直接成了「一家親」,Mamba-2這是要一統(tǒng)江湖了?年前,Mamba被頂會(huì)ICLR拒稿的消息曾引起軒然大波。是不是可以讓SSD利用H100的新特性,讓SSM在2-4K序列長(zhǎng)度的大規(guī)模預(yù)訓(xùn)練中,比Transformer還快?推理優(yōu)化:有許多針對(duì)Transformers的優(yōu)化方法,特別是處理KV緩存。
AmbientGPT是什么?AmbientGPT是一個(gè)革命性的編程輔助工具,允許開(kāi)發(fā)者在本地運(yùn)行GPT-4和基礎(chǔ)模型,同時(shí)能夠直接推斷屏幕上下文,從無(wú)需手動(dòng)上傳上下文信息,大大提高了代碼編寫(xiě)和問(wèn)題解決的效率。訪問(wèn)AIbase,探索各種AI工具和技術(shù),開(kāi)啟智能時(shí)代!
AI芯片廠商SambaNovaAI最新推出的AI芯片Samba-1Turbo表現(xiàn)出色,被稱(chēng)為AI領(lǐng)域的新速度之王。據(jù)外部機(jī)構(gòu)ArtificialAnalysis獨(dú)立測(cè)試結(jié)果顯示,Samba-1Turbo在Llama3Instruct上的輸出速度達(dá)到每秒1,084個(gè)token,創(chuàng)下了目前為止最快的記錄。AI領(lǐng)域的競(jìng)爭(zhēng)愈發(fā)激烈,Samba-1Turbo的問(wèn)世必將為SambaNovaAI贏得更多市場(chǎng)份額。
一款名為ambientGPT的開(kāi)源項(xiàng)目備受關(guān)注。這款工具是一款多模態(tài)MacOS基礎(chǔ)模型操作界面,可以調(diào)用GPT-4oAPI或者本地開(kāi)源模型進(jìn)行問(wèn)答,并能直接訪問(wèn)屏幕內(nèi)容不需要截圖。該技術(shù)的推出,預(yù)示著未來(lái)在智能模型應(yīng)用領(lǐng)域?qū)?huì)迎來(lái)更多創(chuàng)新和便利。
強(qiáng)大的人工智能模型有時(shí)會(huì)出現(xiàn)錯(cuò)誤,包括虛構(gòu)錯(cuò)誤信息或?qū)⑺俗髌纷鳛樽约旱摹榱私鉀Q后者的問(wèn)題,德克薩斯大學(xué)奧斯汀分校的研究團(tuán)隊(duì)開(kāi)發(fā)了一種名為"AmbientDiffusion"的框架。該研究團(tuán)隊(duì)還包括加州大學(xué)伯克利分校和麻省理工學(xué)院的成員。
來(lái)自倫敦帝國(guó)理工學(xué)院和戴爾的研究團(tuán)隊(duì)推出了StyleMamba,這是一種有效的框架,用于轉(zhuǎn)移圖片風(fēng)格,通過(guò)使用文本來(lái)指導(dǎo)風(fēng)格化過(guò)程,同時(shí)保持原始圖像內(nèi)容。當(dāng)前文本驅(qū)動(dòng)風(fēng)格化技術(shù)的計(jì)算需求和訓(xùn)效率低下的問(wèn)題在這個(gè)引入中得到了解決。StyleMamba在各種應(yīng)用和媒體格式上都表現(xiàn)出多功能性和適應(yīng)性,包括多種風(fēng)格轉(zhuǎn)移任務(wù)和視頻風(fēng)格轉(zhuǎn)移。
Rambus公司最近發(fā)布了全新的DDR5RDIMM服務(wù)器內(nèi)存專(zhuān)用PMIC電源管理芯片系列,為數(shù)據(jù)中心提供了強(qiáng)大的性能支持。這一系列PMIC產(chǎn)品不僅為內(nèi)存模塊制造商提供了完整的DDR5RDIMM內(nèi)存接口芯片組滿(mǎn)足了廣泛的數(shù)據(jù)中心用例需求。無(wú)論是處理大規(guī)模數(shù)據(jù)集還是運(yùn)行復(fù)雜的算法,這些PMIC芯片都能確保服務(wù)器穩(wěn)定運(yùn)行,提供持續(xù)、高效的數(shù)據(jù)處理能力。
來(lái)自南京大學(xué)、上海人工智能實(shí)驗(yàn)室、復(fù)旦大學(xué)、浙江大學(xué)的研究隊(duì)發(fā)布了一項(xiàng)關(guān)于視頻理解的開(kāi)創(chuàng)性工作。該研究全面審視了Mamba模型在建模中的多重角色,提出了針對(duì)14種模型/模塊的VideoMambaSuite,并對(duì)其在12項(xiàng)視頻理解任務(wù)中進(jìn)行了深估。綜合實(shí)驗(yàn)結(jié)果顯示,Mamba模型在視頻理解領(lǐng)域具潛在的優(yōu)勢(shì)和多樣化的角色,為未來(lái)視頻理解研究提供了有力的推動(dòng)和參考價(jià)值。
歡迎來(lái)到【今日AI】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
AI21發(fā)布了世界首個(gè)Mamba的生產(chǎn)級(jí)模型:Jamba。這個(gè)模型采用了開(kāi)創(chuàng)性的SSM-Transformer架構(gòu),具有52B參數(shù),其中12B在生成時(shí)處于活動(dòng)狀態(tài)。這意味著Jamba模型在處理需要理解大量文本和復(fù)雜依賴(lài)關(guān)系的任務(wù)時(shí),既能保持高效率,又不會(huì)犧牲性能或精度。
3月29日,知名AI研究實(shí)驗(yàn)室AI21在官網(wǎng)開(kāi)源了,首個(gè)基于SSM-Transformer混合架構(gòu)的商業(yè)大模型——Jamba。ChatGPT、StableDifusion、Lyria等產(chǎn)品使用的皆是Transformer架構(gòu),雖然在捕捉序列內(nèi)長(zhǎng)距離依賴(lài)關(guān)系、泛化能力、特征提取等方面非常優(yōu)秀,但在處理長(zhǎng)序列、訓(xùn)練大參數(shù)模型時(shí)存在AI算力消耗大、過(guò)擬合、內(nèi)存占用大等缺點(diǎn)。耐克、Zoom、沃爾瑪、三星、阿迪達(dá)斯、airbnb等知名企業(yè)在使?
Jamba是一款基于SSM-Transformer混合架構(gòu)的開(kāi)放語(yǔ)言模型,提供頂級(jí)的質(zhì)量和性能表現(xiàn)。它融合了Transformer和SSM架構(gòu)的優(yōu)勢(shì),在推理基準(zhǔn)測(cè)試中表現(xiàn)出色,同時(shí)在長(zhǎng)上下文場(chǎng)景下提供3倍的吞吐量提升。作為基礎(chǔ)模型,Jamba旨在供開(kāi)發(fā)者微調(diào)、訓(xùn)練并構(gòu)建定制化解決方案。
Camb.ai利用突破性的AI技術(shù),為視頻制作者和數(shù)字內(nèi)容創(chuàng)作者提供一站式解決方案,從內(nèi)容上傳到配音下載,支持100多種語(yǔ)言的地道口音和方言配音,同時(shí)保留原聲。該平臺(tái)適合任何內(nèi)容長(zhǎng)度、背景音樂(lè)、說(shuō)話(huà)者數(shù)量或語(yǔ)言種類(lèi),是多語(yǔ)種電影配音、跨語(yǔ)種發(fā)布和全球觀眾拓展的理想選擇。要了解更多信息并體驗(yàn)這項(xiàng)革命性的AI配音服務(wù),請(qǐng)?jiān)L問(wèn)Camb.ai官方網(wǎng)站。
總部位于阿聯(lián)酋的AI配音初創(chuàng)公司CAMB.AI宣布在種子輪融資中成功籌集了400萬(wàn)美元。此次融資由美國(guó)紐約的CourtsideVentures、新加坡TRTLVentures、美國(guó)德州BlueStarInnovationPartners、日本的IkemoriVentures以及日本網(wǎng)頁(yè)設(shè)計(jì)師EisaburoMaeda領(lǐng)投。對(duì)于此次融資,CAMB.AI的CEOAvneeshPrakash表示,他們已經(jīng)看到技術(shù)的驚人應(yīng)用,并希望這筆資金能夠快速推動(dòng)公司的進(jìn)一步發(fā)展和全球擴(kuò)張。
Mamba架構(gòu)論文因在ICLR2024評(píng)審中得到低分引起關(guān)注。該架構(gòu)去年底由CMU和普林斯頓的研究者提出,被認(rèn)為有顛覆Transformer的潛力。在這個(gè)過(guò)程中,LeCun的經(jīng)歷成為引發(fā)討論的契機(jī),引導(dǎo)學(xué)術(shù)界關(guān)注同行評(píng)審制度的合理性和公正性。
基于Mamba的創(chuàng)新正不斷涌現(xiàn),但原論文卻被ICLR放到了「待定區(qū)」。2023年,Transformer在AI大模型領(lǐng)域的統(tǒng)治地位被撼動(dòng)了。無(wú)論Mamba最終能否被ICLR接收,它都已經(jīng)成為一份頗具影響力的工作,也讓社區(qū)看到了沖破Transformer桎梏的希望,為超越傳統(tǒng)Transformer模型的探索注入了新的活力。
VisionMamba是一種新的視覺(jué)模型,通過(guò)引入狀態(tài)空間模型來(lái)進(jìn)行視覺(jué)建模,并在ImageNet分類(lèi)、COCO對(duì)象檢測(cè)和ADE20k語(yǔ)義分割任務(wù)上實(shí)現(xiàn)了更高的性能。項(xiàng)目地址:https://github.com/hustvl/Vim與傳統(tǒng)的基于ConvNet的網(wǎng)絡(luò)相比,VisionMamba在ImageNet分類(lèi)任務(wù)中表現(xiàn)更好,并且比基于Transformer的視覺(jué)模型DeiT具有更高的分類(lèi)準(zhǔn)確率。VisionMamba的出現(xiàn)為視覺(jué)基礎(chǔ)模型的發(fā)展帶來(lái)了巨大的潛力。
經(jīng)過(guò)一番期待,TinyLlama項(xiàng)目發(fā)布了一款引人注目的開(kāi)源模型。該項(xiàng)目于去年9月啟動(dòng),開(kāi)發(fā)人員致力于在數(shù)萬(wàn)億標(biāo)記上訓(xùn)練一款小型模型。這一趨勢(shì)正在推動(dòng)著人工智能領(lǐng)域的創(chuàng)新,也使得許多小型模型在性能上能夠與像OpenAI的GPT這樣的前沿模型相媲美。
領(lǐng)先的SaaS云銀行平臺(tái)Mambu發(fā)布了其2024年度合作伙伴預(yù)測(cè)報(bào)告,深入探討了未來(lái)一年金融領(lǐng)域的趨勢(shì),并研究了銀行、企業(yè)和金融機(jī)構(gòu)如何應(yīng)對(duì)這些變化的方式。該報(bào)告由包括AWS、EY、德勤、Mastersystem、frankieone和Marqeta在內(nèi)的來(lái)自大科技和金融服務(wù)領(lǐng)域的30位專(zhuān)家預(yù)測(cè),這些趨勢(shì)預(yù)計(jì)將在全球范圍內(nèi)影響金融行業(yè)。該地區(qū)的監(jiān)管框架仍然存在分歧,不同國(guó)家的發(fā)展速度差異巨大,跨國(guó)金融服務(wù)提供商必須主動(dòng)了解監(jiān)管變革。
為了用更少的算力讓擴(kuò)散模型生成高分辨率圖像,注意力機(jī)制可以不要,這是康奈爾大學(xué)和蘋(píng)果的一項(xiàng)最新研究所給出的結(jié)論。注意力機(jī)制是Transformer架構(gòu)的核心組件,對(duì)于高質(zhì)量的文本、圖像生成都至關(guān)重要。對(duì)于這個(gè)任務(wù),最佳GAN模型在模型類(lèi)別上勝過(guò)擴(kuò)散模型。
斯坦福大學(xué)和卡內(nèi)基梅隆大學(xué)的研究團(tuán)隊(duì)聯(lián)合提出了一種新的序列模型,名為Mamba,它在語(yǔ)言、音頻和DNA序列等任務(wù)上超越了Transformer模型。Mamba采用了一種新的架構(gòu),具有線性復(fù)雜度和更高的推理吞吐量。Mamba的出現(xiàn)對(duì)于序列建模領(lǐng)域來(lái)說(shuō)是一個(gè)重要的突破,未來(lái)還有許多研究和實(shí)踐的工作需要進(jìn)行。
在別的領(lǐng)域,如果你想形容一個(gè)東西非常重要,你可能將其形容為「撐起了某領(lǐng)域的半壁江山」。但在AI大模型領(lǐng)域,Transformer架構(gòu)不能這么形容,因?yàn)樗鼛缀鯎纹鹆恕刚麄€(gè)江山」。與類(lèi)似規(guī)模的Transformer相比,Mamba具有5倍的生成吞吐量Mamba-3B的質(zhì)量與兩倍于其規(guī)模的Transformer相當(dāng)。
AMBER項(xiàng)目是針對(duì)多模式語(yǔ)言模型的一個(gè)新基準(zhǔn),旨在評(píng)估和降低模型中的幻覺(jué)問(wèn)題?;糜X(jué)是指當(dāng)模型在生成文本、圖像或音頻等多種模態(tài)的數(shù)據(jù)時(shí),可能會(huì)產(chǎn)生不準(zhǔn)確或誤導(dǎo)性的結(jié)果。自動(dòng)化評(píng)估流程:提供自動(dòng)化評(píng)估管道,簡(jiǎn)化用戶(hù)評(píng)估模型性能的過(guò)程。