11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
CodeFuse-VLM是一個支持多種視覺模型和語言大模型的框架,用戶可以根據(jù)自己的需求搭配不同的VisionEncoder和LLM。CodeFuse-VLM-14B模型在多個通用和代碼任務(wù)上的性能超過LLAVA-1.5和Qwen-VL。CodeFuse-VLM還被用于訓(xùn)練網(wǎng)頁圖片到前端代碼的多模態(tài)大模型,提高了前端工程師的開發(fā)效率。
近幾個月來,大型語言模型在人工智能社區(qū)中引起了極大的關(guān)注和流行。這些模型在文本摘要、問答、代碼完成、內(nèi)容生成等任務(wù)中展示出了強大的能力。考慮到低質(zhì)量網(wǎng)絡(luò)數(shù)據(jù)的豐富性和經(jīng)典LLM訓(xùn)練方法的資源密集性,這種方法提供了一種可能的前進方式。
谷歌AI研究團隊最近提出了SpatialVLM,這是一種旨在增強視覺語言模型空間推理能力的創(chuàng)新系統(tǒng)。盡管先進的模型如GPT-4V在人工智能驅(qū)動任務(wù)中取得了顯著進展,但它們在空間推理方面仍存在顯著局限。-SpatialVLM的開發(fā)標(biāo)志著人工智能技術(shù)的重大進步。
隨著自然語言處理和自然語言生成的進步,大型語言模型在實際應(yīng)用中得到了廣泛使用。由于它們能夠模仿人類行為,并具有通用性,這些模型已經(jīng)涉足各個領(lǐng)域。研究團隊強調(diào)了對預(yù)訓(xùn)練數(shù)據(jù)篩選程序及其社會影響進行更多研究的需求。
智源研究院提出了首個用于自然語言理解任務(wù)的1bit輕量化預(yù)訓(xùn)練模型BiPFT。與傳統(tǒng)的FP32模型相比,BiPFT模型在推理階段顯著減少了操作數(shù)量和內(nèi)存使用。該模型在不同超參數(shù)設(shè)定下都能取得更好的效果,具有較好的獨立學(xué)習(xí)能力和超參數(shù)魯棒性。
開源大模型社區(qū)HuggingFace公布了最新的開源大模型排行榜,通義千問在預(yù)訓(xùn)練模型類別中脫穎出,占據(jù)榜首位置。HuggingFace開源大模型排行榜涵蓋了全球上百個頂尖的開源大模型,并從閱讀理解、邏輯推理、數(shù)學(xué)計算、事實問答等六個維度進行了全面評估。阿里云開源通義千問720億參數(shù)模型。
最新研究警告,大型模型在基準評估中可能面臨潛在危害,原因是測試集中的數(shù)據(jù)可能意外進入預(yù)訓(xùn)練過程。這項研究由中國人民大學(xué)信息學(xué)院、高瓴人工智能學(xué)院和伊利諾伊大學(xué)厄巴納-香檳分校的學(xué)者聯(lián)合進行。對于未來的研究,需要進一步探討不同程度的數(shù)據(jù)泄露對模型性能的影響,并在預(yù)訓(xùn)練中引入數(shù)據(jù)泄露進行更深入的模擬測試。
說起大語言模型所展示的令人印象深刻的能力,其中之一就是通過提供上下文中的樣本,要求模型根據(jù)最終提供的輸入生成一個響應(yīng),從實現(xiàn)少樣本學(xué)習(xí)的能力。這一點依靠的是底層機器學(xué)習(xí)技術(shù)「Transformer模型」,并且它們也能在語言以外的領(lǐng)域執(zhí)行上下文學(xué)習(xí)任務(wù)。更多研究細節(jié),可參考原論文。
ULTRA是一個旨在推理知識圖譜的預(yù)訓(xùn)練基礎(chǔ)模型。ULTRA的關(guān)鍵創(chuàng)新在于它能夠?qū)W習(xí)通用和可遷移的圖表示無需依賴文本信息。ULTRA的通用性和可遷移性使其成為歸納和可遷移的知識圖譜推理的有望選擇,對于各種不同關(guān)系結(jié)構(gòu)的新KGs都能表現(xiàn)出色。
科技公司戴爾發(fā)布了一款名為“DellValidatedDesignforGenerativeAIwithNVIDIAforModelCustomization”的生成式人工智能工具,旨在幫助企業(yè)從數(shù)據(jù)中提取智能。這一工具的特點在于提供了預(yù)訓(xùn)練的模型,用戶無需從頭開始構(gòu)建模型,即可快速提取數(shù)據(jù)中的智能信息。生成式AI模型的定制和微調(diào)可以幫助企業(yè)更好地利用其數(shù)據(jù)資源,實現(xiàn)更高效的工作流程和更準確的決策。