11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
歡迎來到【AI日報(bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、谷歌發(fā)布最強(qiáng)開源語言模型Gemma2性能超越Llama3谷歌在最近的I/O柏林大會上宣布開源最新語言模型Gemma2,該模型性能超越Llama3,同時(shí)具有高效推理和廣泛的硬件支持。CIR的首席執(zhí)?
RefuelAI最近宣布推出兩個(gè)新版本的大型語言模型,RefuelLLM-2和RefuelLLM-2-small,這兩個(gè)模型專為數(shù)據(jù)標(biāo)注、清洗和豐富任務(wù)設(shè)計(jì),旨在提高處理大規(guī)模數(shù)據(jù)集的效率。RefuelLLM-2的主要特點(diǎn)包括:自動化數(shù)據(jù)標(biāo)注:能夠自動識別和標(biāo)記數(shù)據(jù)中的關(guān)鍵信息,如分類數(shù)據(jù)和解析特定屬性。RefuelAI的這一創(chuàng)新為數(shù)據(jù)標(biāo)注和清洗領(lǐng)域帶來了新的解決方案,有助于自動化和優(yōu)化大規(guī)模數(shù)據(jù)處理流程。
MetaLlama3是Meta公司最新推出的一款開源大型語言模型。它在多項(xiàng)行業(yè)基準(zhǔn)測試中表現(xiàn)出色,性能卓越,可支持廣泛的使用場景,包括改善推理能力等新功能。要了解更多信息,請?jiān)L問MetaLlama3官方網(wǎng)站。
芬蘭赫爾辛基的人工智能初創(chuàng)公司SiloAI本周發(fā)布了Poro,這是一個(gè)旨在提升歐洲語言多語言人工智能能力的新開源大型語言模型。Poro是計(jì)劃中的首個(gè)開源模型,旨在最終涵蓋歐盟所有24種官方語言。盡管仍處于早期階段,但Poro在將語言人工智能從專有領(lǐng)域引入開源方面代表著一個(gè)重要的里程碑。
初創(chuàng)公司Gradient已經(jīng)成功融資1000萬美元,用于擴(kuò)大其云平臺的采用,該平臺允許開發(fā)人員托管定制版本的開源語言模型。這項(xiàng)投資由WingVC領(lǐng)投,MangoCapital、TokyoBlack、TheNewNormalFund、SecureOctane和GlobalFoundersCapital也參與了這一輪融資。為了支持其客戶基礎(chǔ)的持續(xù)增長,該公司將利用新關(guān)閉的種子輪融資擴(kuò)大其云平臺計(jì)劃在年底前雇傭8名新員工。
一篇介紹開源人工智能模型FinGPT的論文引起了廣泛關(guān)注。該模型是專門為金融領(lǐng)域開發(fā)的,旨在為金融研究和開發(fā)提供易于使用的工具,包括自動化數(shù)據(jù)管理和類似機(jī)器人顧問和算法交易等應(yīng)用的潛力。RLHF技術(shù)支持:FinGPT采用強(qiáng)化學(xué)習(xí)從人類反饋中學(xué)習(xí)個(gè)性化偏好,為用戶提供個(gè)性化的投資建議和智能投資工具。
本文概要:1.StabilityAI發(fā)布了開源語言模型StableCode,用于代碼生成,支持多種編程語言。2.StableCode有4K和16K版本,16K版本的大上下文窗口對新手程序員特別有用。隨著StabilityAI不斷推出更多的語言模型,編程將變得更加普及化,有望出現(xiàn)更多的1b級編碼員。
開源語言模型如雨后春筍般的冒出,其中有部分號稱性能比Meta、谷歌等大科技公司開發(fā)的產(chǎn)品更優(yōu)秀。最近,一款名為FalconLM開源語言模型就號稱提供了比Meta的LLaMA更好的性能,也可以用于商業(yè)。據(jù)說該數(shù)據(jù)集已準(zhǔn)備好進(jìn)行多模式擴(kuò)展,因?yàn)槭纠呀?jīng)包含圖像的鏈接和替代文本。
開源語言模型的進(jìn)步是無可爭議的。但它們真的能與來自O(shè)penAI、谷歌和其他公司的訓(xùn)練有素的語言模型競爭嗎?諸如之前所報(bào)道的,使用AlpacaFormula訓(xùn)練的開源語言模型幾乎不需要怎么訓(xùn)練以及很低的成本就能達(dá)到了類似于ChatGPT的水平。OpenAI研究員約翰舒爾曼最近也批評使用ChatGPT數(shù)據(jù)微調(diào)開源基礎(chǔ)語言模型,稱如果微調(diào)數(shù)據(jù)集包含原始模型中不存在的知識,它們可能會產(chǎn)生更多?
AI芯片初創(chuàng)公司Cerebras宣布進(jìn)軍大型語言模型領(lǐng)域,推出了七種新的開源語言模型。稱為Cerebras-GPT+的模型系列的大小范圍從1.11億個(gè)參數(shù)到130億個(gè)參數(shù)。Cerebras+設(shè)計(jì)了新模型以提供更廣泛的訪問,并表示希望這些模型將“作為有效培訓(xùn)的秘訣,并作為進(jìn)一步社區(qū)研究的參考。