11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、快手推出“可靈AI”獨(dú)立APP加碼移動(dòng)端AI創(chuàng)作布局快手最近推出了“可靈AI”獨(dú)立APP,致力于在移動(dòng)端擴(kuò)展AI創(chuàng)作領(lǐng)域。用戶可以享受到更愉悅和個(gè)性化的電子郵件管理體驗(yàn)。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、RhymesAI開源視頻生成模型Allegro:文本秒變高清視頻RhymesAI最近開源了先進(jìn)的文本生成視頻模型Allegro,為人工智能生成視頻領(lǐng)域帶來(lái)新的可能性。這次收購(gòu)反映了垂類大模型公司面臨的發(fā)展困境,也印證了大廠對(duì)AI人才的渴求趨勢(shì)。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、阿里國(guó)際推出最新多模態(tài)大模型Ovis,看菜品就能提供烹飪步驟阿里國(guó)際AI團(tuán)隊(duì)發(fā)布了多模態(tài)大模型Ovis,為各行業(yè)帶來(lái)新機(jī)遇。英特爾在2024年計(jì)劃中穩(wěn)步推進(jìn),展望2025年推出的FalconShores將進(jìn)一步提升其在AI領(lǐng)域的競(jìng)爭(zhēng)力。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、震驚AI界!14、微軟研究院推AI框架E5-V:用文本對(duì)的單模態(tài)訓(xùn)練簡(jiǎn)化多模態(tài)學(xué)習(xí)降低成本微軟研究院與北京航空航天大學(xué)聯(lián)合推出的E5-V框架通過(guò)單模態(tài)訓(xùn)練簡(jiǎn)化多模態(tài)學(xué)習(xí),降低成本,在多個(gè)任務(wù)中展現(xiàn)出優(yōu)異性能,代表了多模態(tài)學(xué)習(xí)的重大進(jìn)步。
曠視科技發(fā)布了一項(xiàng)新的開源AI人像視頻生成框架——MegActor。該框架讓用戶只需輸入一張靜態(tài)肖像圖片和一段視頻,便可生成一段表情豐富、動(dòng)作一致的AI人像視頻。MegActor已經(jīng)完全開源,供開發(fā)者和用戶即開即用。
StabilityAI的聯(lián)合首席執(zhí)行官正式宣布了StableDiffusion3Medium的開放發(fā)布日期為6月12日。這一消息讓許多期待使用這一模型的人欣喜不已。這一舉措也受到了用戶的熱烈歡迎,許多人紛紛表示已經(jīng)注冊(cè)候補(bǔ)名單,迫不及待地想要嘗試這一新模型。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、ChatGPTEdu版本來(lái)啦:支持GPT-4o、自定義GPT、數(shù)據(jù)分析ChatGPTEdu版本推出,為大學(xué)校園提供多功能ChatGPT,助力學(xué)生、老師提升學(xué)習(xí)質(zhì)量和教學(xué)效率。技術(shù)創(chuàng)新點(diǎn)在于采用高斯點(diǎn)云生?
阿里巴巴的一個(gè)項(xiàng)目,利用一張圖片和提取視頻中的人物姿勢(shì)合成角色動(dòng)畫,現(xiàn)在被NovitaAI開源并提供了API。用戶只需提供一張照片和一個(gè)參考視頻,即可通過(guò)API接入合成動(dòng)畫。通過(guò)優(yōu)化訓(xùn)練過(guò)程和提供高質(zhì)量的數(shù)據(jù)集,該項(xiàng)目展現(xiàn)了先進(jìn)的技術(shù)水平,為動(dòng)畫領(lǐng)域帶來(lái)了新的可能性和機(jī)遇。
隨著人們對(duì)生成式AI的熱情不斷高漲,越來(lái)越多的公司試圖涉足這一領(lǐng)域。Fireworks.ai就是其中之一。該公司在2022年獲得了2500萬(wàn)美元的融資,由Benchmark領(lǐng)投,SequoiaCapital和未透露姓名的天使投資者參與。
StabilityAI開源了小體量預(yù)訓(xùn)練模型StableCodeInstruct3B。StableCodeInstruct3B是一個(gè)基于StableCode3B的指令調(diào)整編碼語(yǔ)言模型。值得一提的是,StableCodeInstruct3B現(xiàn)在可以通過(guò)StabilityAI會(huì)員資格用于商業(yè)目的。
Yi-9B是01.AI研發(fā)的下一代開源雙語(yǔ)大型語(yǔ)言模型系列之一。訓(xùn)練數(shù)據(jù)量達(dá)3T,展現(xiàn)出強(qiáng)大的語(yǔ)言理解、常識(shí)推理、閱讀理解等能力。要獲取更多詳細(xì)信息并開始體驗(yàn)Yi-9B,請(qǐng)?jiān)L問(wèn)Yi-9B網(wǎng)站。
AllenAI最近宣布開源了微調(diào)模型OLMo-7B-Instruct,這是一個(gè)真正意義上的開源項(xiàng)目。該模型是基于AI2的Dolma數(shù)據(jù)集構(gòu)建的,該數(shù)據(jù)集包括了用于語(yǔ)言模型預(yù)訓(xùn)練的三萬(wàn)億標(biāo)記的開放語(yǔ)料庫(kù)包括生成訓(xùn)練數(shù)據(jù)的代碼。AllenAI的舉措為開源社區(qū)提供了更多可能性,促進(jìn)了模型研究和應(yīng)用的發(fā)展。
Gemma-2B-IT是谷歌推出的2B參數(shù)指令調(diào)整模型,基于Gemini架構(gòu),專為提高數(shù)學(xué)、推理和代碼處理能力設(shè)計(jì)。該模型在普通筆記本上即可運(yùn)行,無(wú)需龐大的AI算力,適用于多種應(yīng)用場(chǎng)景。趕快體驗(yàn)這款強(qiáng)大的AI寫作指令調(diào)整工具吧!
Gemma是Google推出的一系列開源的輕量級(jí)語(yǔ)言模型系列。它結(jié)合了全面的安全措施,在尺寸上實(shí)現(xiàn)了優(yōu)異的性能,甚至超過(guò)了一些較大的開放模型。提供快速入門指南、基準(zhǔn)測(cè)試、模型獲取等,幫助開發(fā)者負(fù)責(zé)任地開發(fā)AI應(yīng)用。
2月13日,著名大模型開源平臺(tái)StabilityAI在官網(wǎng),開源了全新文本生成圖像模型——StableCascade。SC是根據(jù)最新Würstchen基礎(chǔ)模型開發(fā)成,大幅度降低了對(duì)推理、訓(xùn)練的算力需求,例如,訓(xùn)練Würstchen模型使用了約25,000小時(shí)性能卻更強(qiáng)勁StableDiffusion2.1大約使用了200,000小時(shí)。在訓(xùn)練Würstchen基礎(chǔ)模型時(shí),參數(shù)總量比SDXL多14億,但訓(xùn)練成本僅是其8分之一。
MetaAI最近開源了AVID,這是一項(xiàng)具有先進(jìn)修復(fù)和擴(kuò)展能力的T2V模型。AVID不僅支持通過(guò)文本編輯視頻可以修復(fù)視頻、更改視頻對(duì)象、改變紋理和顏色,甚至刪除視頻內(nèi)容或更換視頻環(huán)境。在推理過(guò)程中,對(duì)于長(zhǎng)度為$N^\prime$的視頻,AVID模型會(huì)構(gòu)建一系列片段,每個(gè)片段包含$N$個(gè)連續(xù)幀,并在每個(gè)去噪步驟中計(jì)算并匯總每個(gè)分段的結(jié)果。
12月8日,著名開源生成式AI平臺(tái)stability.ai在官網(wǎng)開源了,30億參數(shù)的大語(yǔ)言模型StableLMZephyr3B。Zephyr3B專用于手機(jī)、筆記本等移動(dòng)設(shè)備,主打參數(shù)小、性能強(qiáng)、算力消耗低的特點(diǎn),可自動(dòng)生成文本、總結(jié)摘要等,可與70億、130億參數(shù)的模型相媲美。其性能可與Falcon-4b-Instruct、WizardLM-13B-v1、Llama-2-70b-chat和Claude-V1等幾個(gè)大參數(shù)模型相媲美。
文生成圖AI平臺(tái)Stability.ai發(fā)布開源SDXLTurbo,圖像生成實(shí)時(shí)響應(yīng),僅需1秒。SDXLTurbo基于全新對(duì)抗擴(kuò)散蒸餾技術(shù),將生成步驟減至1-4步,保持高質(zhì)量。測(cè)試結(jié)果顯示對(duì)相對(duì)清晰的視頻效果顯著,為提升視頻素材清晰度帶來(lái)新可能。
這是一個(gè)簡(jiǎn)單的應(yīng)用程序,可將截圖轉(zhuǎn)換為HTML/TailwindCSS。它利用GPT-4Vision生成代碼,并使用DALL-E3生成類似的圖像。用戶還可以通過(guò)GitHub上的issue或Twitter提供反饋、功能請(qǐng)求和報(bào)告bug。
Anthropic公司最近開源了Persimmon-8B,這是目前參數(shù)量少于10億的完全免許可使用的最強(qiáng)大語(yǔ)言模型。該模型采用Apache許可證發(fā)布,代碼和權(quán)重已在GitHub上開源。這只是一個(gè)早期小規(guī)模的開源,他們未來(lái)還計(jì)劃開源更多內(nèi)容。
始智AI團(tuán)隊(duì)打造的中立開放AI開源社區(qū)平臺(tái)正式上線,旨在打造中國(guó)版“HuggingFace”。該社區(qū)匯聚了清華/智譜chatglm2-6B、StableDiffusionV1.5、alphafold2、seamlessm4tlarge等模型,以及shareGPT、ultrachat、moss-sft等數(shù)據(jù)集等資源。始智AI表示,wisemodel.cn平臺(tái)目前已經(jīng)完成了基礎(chǔ)的社區(qū)功能,注冊(cè)完成之后,在“用戶中心-我的組織”模塊創(chuàng)建組織,可以邀請(qǐng)成員加入到組織內(nèi),之后組織內(nèi)成員都?
AI創(chuàng)業(yè)公司潞晨科技宣布,旗下Colossal-AI首個(gè)開源了650億參數(shù)LLaMA低成本預(yù)訓(xùn)練方案。相比業(yè)界其他主流選擇,該預(yù)訓(xùn)練方案可提升預(yù)訓(xùn)練速度38%,僅需32張A100/A800即可使用,并且不限制商業(yè)使用。
在很長(zhǎng)一段時(shí)間內(nèi),OpenAI都是互聯(lián)網(wǎng)開源精神的踐行者,GPT人工智能模型也在很長(zhǎng)一段時(shí)間內(nèi)保持開源,最多也不過(guò)是在推出一段時(shí)間后,再進(jìn)行開源。但從ChatGPT采用的GPT-3.5開始,這一情況發(fā)生了改變,無(wú)論是GPT-3.5還是最新的GPT-4,OpenAI都表示不會(huì)進(jìn)行開源。從官方回應(yīng)來(lái)看,對(duì)于AI濫用可能導(dǎo)致的風(fēng)險(xiǎn)與嚴(yán)重后果,或許是OpenAI選擇不進(jìn)行模型開源的主要原因之一。
9月17日,作為2021全球智博會(huì)的分論壇,由啟智社區(qū)和鵬城實(shí)驗(yàn)室承辦的“AI開源基礎(chǔ)平臺(tái)技術(shù)論壇”在蘇州如期舉行,新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟(AITISA)、依瞳科技、梯度科技、華為、聯(lián)通研究院、達(dá)闥科技等多家企業(yè)的創(chuàng)始人和項(xiàng)目負(fù)責(zé)人濟(jì)濟(jì)一堂,分享了近期最新的企業(yè)級(jí)開源平臺(tái)的技術(shù)、案例和開源項(xiàng)目,交流開源經(jīng)驗(yàn),共同探討國(guó)家新一代人工智能的基礎(chǔ)體系的建設(shè)和發(fā)展,和開源社區(qū)生態(tài)建設(shè)之路。啟智社區(qū)從2018年開?
Linux基金會(huì)近日發(fā)布Acumos AI,Acumos AI是一個(gè)用于訓(xùn)練和部署人工智能模型的開源架構(gòu)平臺(tái)。該基金會(huì)建立于三月份,它是Linux基金會(huì)的一部分。并且支持機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和人工智能領(lǐng)域的開源項(xiàng)目
騰訊代表性的AI開源項(xiàng)目之一騰訊優(yōu)圖ncnn正式加入ONNX(Open Neural Network Exchange,開放的神經(jīng)網(wǎng)絡(luò)切換),支持將ONNX文件轉(zhuǎn)換為ncnn模型。AI開發(fā)者將能更快實(shí)現(xiàn)從研究到模型的落地部署,也能更方便地在不同框架間切換。
近日,Linux基金會(huì)在美國(guó)洛杉磯開放網(wǎng)絡(luò)峰會(huì)(Open Networking Summit)上宣布成立LF深度學(xué)習(xí)基金會(huì)。作為在AI領(lǐng)域具有卓越技術(shù)影響力的企業(yè),百度受邀進(jìn)入董事會(huì),獲得技術(shù)咨詢委員會(huì)席位,并成為L(zhǎng)F深度學(xué)習(xí)基金會(huì)的創(chuàng)始白金會(huì)員。LF深度學(xué)習(xí)基金會(huì)旨在支持和維護(hù)在人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等領(lǐng)域的關(guān)鍵性開源技術(shù)創(chuàng)新,為全世界開發(fā)者和數(shù)據(jù)科學(xué)家提供更為強(qiáng)大和全面的支持。Linux基金會(huì)相關(guān)負(fù)責(zé)人表示,“LF深度學(xué)習(xí)基金會(huì)將?
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、開發(fā)者狂喜!GPT-4o新版本上線,API更快更便宜OpenAI近期推出了全新的結(jié)構(gòu)化輸出功能,旨在使模型生成的輸出嚴(yán)格遵循開發(fā)者提供的JSON模式,提升輸出的可靠性和匹配度。AWS提供?
LaVague是一個(gè)旨在自動(dòng)化瀏覽器交互的大型動(dòng)作模型框架,通過(guò)將自然語(yǔ)言指令轉(zhuǎn)化為無(wú)縫的瀏覽器交互,重新定義了互聯(lián)網(wǎng)瀏覽體驗(yàn)。該框架的設(shè)計(jì)初衷是為用戶自動(dòng)化繁瑣的任務(wù),節(jié)省時(shí)間,讓用戶能夠?qū)W⒂诟幸饬x的事務(wù)。未來(lái)的發(fā)展方向可能包括優(yōu)化本地模型、改進(jìn)信息檢索以確保生成的代碼片段相關(guān)性、支持其他瀏覽器引擎等。
OLMo是由AI2研究院發(fā)布的開源語(yǔ)言模型和訓(xùn)練框架。該框架提供了完整的訓(xùn)練數(shù)據(jù)、代碼、模型參數(shù)以及評(píng)估代碼等資源,為語(yǔ)言模型技術(shù)研究人員提供了全面的支持。通過(guò)訪問(wèn)OLMo官網(wǎng),您將進(jìn)入一個(gè)開放的學(xué)術(shù)世界,與全球研究人員共同推動(dòng)語(yǔ)言模型技術(shù)的發(fā)展。