11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
僅需1塊80G顯卡,大模型理解小時級超長視頻。智源研究院聯(lián)合上海交通大學(xué)、中國人民大學(xué)、北京大學(xué)和北京郵電大學(xué)等多所高校帶來最新成果超長視頻理解大模型Video-XL。Video-XL的模型代碼均已開源,以促進全球多模態(tài)視頻理解研究社區(qū)的合作和技術(shù)共享。
一條長達900分鐘的數(shù)學(xué)解說視頻,在抖音火了。900分鐘,足足15個小時。既然遠遠定了一個靶子立在那兒,也就不看眼前這兩下子,看后期有沒有值得沉淀的東西”。
UT奧斯丁等機構(gòu)提出的StreamingT2V技術(shù)引發(fā)了廣泛關(guān)注,將AI視頻生成推向了新的高度。這項技術(shù)突破了以往視頻長度的限制,實現(xiàn)了生成高度一致且長度可擴展的視頻。StreamingT2V技術(shù)的不斷完善和提升也將進一步推動AI視頻生成領(lǐng)域的發(fā)展,為視頻內(nèi)容創(chuàng)作提供更多可能性。
你相信嗎?只要輸入16句簡單描述,AI就能生成11分鐘的動畫了。微軟亞洲研究院推出了NUWA-XL超長視頻生成模型,采用創(chuàng)新的Diffusion+over+Diffusion架構(gòu),通過「從粗到細」的生成過程,可以并行生成高質(zhì)量的超長視頻,為多模態(tài)大模型提供了新的解題思路。他希望未來可以使用一套結(jié)構(gòu)來融合支持語言和視覺的生成算法,使人工智能模型更加通用。
最近有不少的小伙伴都聽說過一個新鮮的詞語——最強贅婿歪嘴戰(zhàn)神,相信很多人看這個歪嘴戰(zhàn)神的廣告都看上癮了,所以這次就為大家?guī)硗嶙鞈?zhàn)神男主逆襲半小時視頻合集,讓大家一次性看個過癮。
最近幾天,短視頻江湖風(fēng)起云涌,騰訊收購快手的傳聞愈演愈烈,所以,今天Mr.QM就重點跟大家分享一下短視頻行業(yè)。作為移動互聯(lián)網(wǎng)最后一座仍在增長的金礦,QuestMobile數(shù)據(jù)顯示,截止到 2019 年 6 月,短視頻行業(yè)新安裝用戶接近 1 億,總體MAU 8. 21 億,同比增速32%,相比一下,目前在線視頻總體MAU9. 64 億,同比增速2.4%,二者差距正在持續(xù)縮小,這也是短視頻超過手機游戲(MAU 6. 91 億)、在線音樂(MAU 6. 58 億)、在線閱讀(MAU 3
SQUARE ENIX在美國時間 6 月 10 日舉辦的 E3 展發(fā)表會中,正式揭露備受玩家期待的經(jīng)典重制角色扮演游戲《最終幻想7 重制版(FF7Remake)》(PS4)的詳情。
在前不久的PSX體驗會上,世嘉和索尼互動娛樂宣布《如龍6:命之詩》將于2018年登陸歐美地區(qū),不過本作首發(fā)具備中文版支持。還在考慮要不要入手的同學(xué)可以先看看這段超長游戲演示視頻。
PicsartAIResearch等團隊聯(lián)合發(fā)布了一款名為StreamingT2V的AI視頻模型,該模型能夠生成長達1200幀、時長達2分鐘的視頻,這在技術(shù)上超越了之前備受關(guān)注的Sora模型。StreamingT2V的發(fā)布不僅在視頻長度上取得了突破它是一個免費開源的項目,可以無縫兼容SVD和animatediff等模型,這對于開源生態(tài)的發(fā)展具有重要意義。我們或許可以期待更多基于這類技術(shù)的創(chuàng)新應(yīng)用,例如在電影制作、游戲?
近日,PicsartAIResarch等團隊聯(lián)合發(fā)布了StreamingT2V,可以生成長達1200幀、時長為2分鐘的視頻,一舉超越Sora。作為開源世界的強大組件,StreamingT2V可以無縫兼容SVD和animatediff等模型。也許未來的某一天,那里也會是我們?nèi)祟惖纳婵臻g。
UT奧斯丁等機構(gòu)提出了一種名為StreamingT2V的技術(shù),讓AI視頻的長度擴展至近乎無限一致性,動作幅度也非常好!Sora一出,文生視頻的在長度這個指標上就卷的沒邊了。從Pika和Runway的4秒,到VideoPoet的理論無限長,各個團隊都在通過各種不同的技術(shù)路徑不斷延長視頻生成長度的上限。在這個針對時間一致性、文本對齊和每幀質(zhì)量的測試集上,StreamingT2V的成績確實是最好的。
啥?AI都能自己看電影大片了?賈佳亞團隊最新研究成果,讓大模型直接學(xué)會了處理超長視頻。丟給它一部科幻大片《星際穿越》:它“看”完之后,不僅能結(jié)合電影情節(jié)和人物輕松對電影進行點評:還能很精準地回答出劇中所涉的細節(jié):例如:蟲洞的作用和創(chuàng)造者是誰?男主庫珀是如何將黑洞中的信息傳遞給女兒墨菲?啊這,感覺電影博主的飯碗也要被AI搶走了。團隊也提供了demo地址,可自己上傳視頻和LLaMA-VID對話。
無需游戲引擎,視頻基座模型直出實時交互可玩的Minecraft,初創(chuàng)公司Decart和Etched打造的Oasis已經(jīng)做到了這一點。不用游戲引擎,AI就可以自動生成游戲了?今天,兩家初創(chuàng)公司Decart和Etched宣布,他們打造了一款世界上首個實時、可玩、可交互的世界模型——Oasis。今年6月,Etched宣布已經(jīng)籌集了1.2億美元的資金用于擴大生產(chǎn),并與臺積電合作,以35人的精干團隊直接放話挑戰(zhàn)市值3萬億的英偉達。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、面向付費用戶!全新ChatGPTWindows版本上線:快捷鍵即可召喚AI助手OpenAI推出了全新的ChatGPTWindows應(yīng)用早期版,為付費用戶提供便捷的AI助手體驗。營收主要來自Robotaxi業(yè)務(wù),2024年上半年同比增長86%。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、Kimi推出多功能語音通話模式支持更換聲音語速調(diào)節(jié)Kimi人工智能助手最近推出了備受期待的語音通話功能,為用戶帶來了豐富的互動體驗。Nvidia穩(wěn)固主導(dǎo)AI芯片市場,市值僅次于蘋果,展現(xiàn)強大實力。
快手、北京大學(xué)和北京郵電大學(xué)的研究人員聯(lián)合開源了超高清視頻模型——Pyramid-Flow。yramid-Flow僅通過文本就能生成最多10秒、1280x768分辨率和24幀視頻,在光影效果、運動動作一致性、視頻質(zhì)量、文本語義還原、色彩搭配等方面非常優(yōu)秀,生成的視頻很棒。有助于保持視頻生成的連貫性和邏輯性,因為避免了在未來的幀中引入不相關(guān)或不一致的信息。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、Adobe將推AI視頻模型FireflyVideoModelAdobe最新推出的FireflyVideoModel是一款A(yù)I視頻生成工具,預(yù)計將在今年晚些時候進入測試階段。格雷迪指出,優(yōu)秀的AI應(yīng)用初創(chuàng)企業(yè)需要在模型之上精?
最近刷屏AI圈的大事件,無外乎MiniMax推出了視頻生成工具海螺AI??萍疾┲鱾儗λ挠韬裢娂姼袊@“忘了Sora,MiniMax的視頻生成模型已經(jīng)獲得了巨大進步”“中國又出了一個強力競爭對手”“我見過手部動作最自然的模型”……電影制作人們用它開始玩起了短片,賽博科幻風(fēng)、暗黑恐怖風(fēng)都沒在怕的。他提到:“最重要的東西還不是商業(yè)化,是提高AI產(chǎn)品在用戶中的滲透率,?
AI視頻領(lǐng)域卷瘋了。Luma引發(fā)的狂歡還沒結(jié)束,AI視頻圈又來了個挑戰(zhàn)者——斯坦福大學(xué)團隊出品的Proteus。他主要在計算機視覺和機器學(xué)習(xí)領(lǐng)域進行研究,并致力于構(gòu)建能夠以結(jié)構(gòu)化和概率性方式理解世界的模型。
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、美圖發(fā)布王炸產(chǎn)品MOKI可一鍵生成AI視頻短片美圖公司發(fā)布了名為MOKI的AI視頻制作工具,實現(xiàn)了一鍵生成AI視頻短片的功能,展示了其在AI領(lǐng)域的深入布局和創(chuàng)新能力。市場上已有?
歡迎來到【AI日報】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點擊了解:https://top.aibase.com/1、LumaAI推重磅級文生視頻模型DreamMachine炸裂程度堪比SoraLumaAI最新發(fā)布的文生視頻模型DreamMachine免費開放使用,可生成高質(zhì)量視頻,具有與OpenAI的Sora相媲美的質(zhì)量。公司推出2納米?
知名的3D建模平臺LumaAI推出了個相當(dāng)驚艷的文生視頻模型DreamMachine,不僅操作簡單,其效果堪比Sora。只要輸入關(guān)鍵詞就能生成5秒高質(zhì)量的視頻,具有出色的動作連貫性和視覺效果。”這時候只要耐心等待結(jié)果即可,以下是測試圖片生成的效果。
LumaAI公司推出了一款名為DreamMachine的電影級AI視頻工具,它能夠快速制作出高質(zhì)量且逼真的視頻。這款工具是基于高度可擴展和高效的Transformer模型,直接在視頻上進行訓(xùn)練,能夠生成物理上準確、一致且豐富的鏡頭。小編測試了下,通過文字提示生成視頻,DreamMachine確實在即時連貫性、視頻質(zhì)量、細節(jié)清晰度和電影質(zhì)感風(fēng)格都表現(xiàn)不錯,可以說是除了sora以外,目前生成質(zhì)量最好的了。
Luma公司推出了一款名為DreamMachine的AI視頻生成模型,它迅速在業(yè)界引起了轟動。這款產(chǎn)品利用了Luma在AI生成技術(shù)上的深厚積累,為用戶提供了高效、直觀的視頻生成體驗,具有以下特點與優(yōu)勢:速度與效率:DreamMachine能在短時間內(nèi)生成高質(zhì)量視頻內(nèi)容,每120秒完成120幀的制作。小編測試了下,通過文字提示生成視頻,DreamMachine確實在即時連貫性、視頻質(zhì)量、細節(jié)清晰度和電影質(zhì)感風(fēng)格都表現(xiàn)不錯,可以說是除了sora以外,目前生成質(zhì)量最好的了。
6月13日,3D建模平臺LumaAI推出了一款名為DreamMachine的新型文生視頻模型,并向所有用戶免費開放。DreamMachine不僅支持文本生成視頻能利用圖片作為引導(dǎo)來創(chuàng)造視頻內(nèi)容。DreamMachine的免費體驗地址為:https://lumalabs.ai/dream-machine/creations。
6月13日,知名3D建模平臺LumaAI發(fā)布最新文生視頻模型DreamMachine,向所有用戶免費開放使用。DreamMachine除了支持文本之外可使用圖片作為引導(dǎo)來生成視頻,其生成的視頻質(zhì)量、動作一致性、色彩、光影、飽和度、運鏡等方面,可以媲美OpenAI的Sora。國內(nèi)快手發(fā)布的“可靈”和今天最新的DreamMachine已經(jīng)全面開放使用,并且在生成的視頻質(zhì)量方面不輸Sora,文生視頻賽道的競爭格局將會?
騰訊混元團隊聯(lián)合中山大學(xué)、香港科技大學(xué)推出了一款全新的圖生視頻模型,名為"Follow-Your-Pose-v2"。這一模型在視頻生成領(lǐng)域?qū)崿F(xiàn)了從單人到多人的跨越,能夠處理人物合照,讓所有人都能同時在視頻中動起來?;煸狣iT模型的使用門檻降低,用戶可以在HuggingFace的官方模型庫中用三行代碼調(diào)用模型。
騰訊混元團隊聯(lián)合中山大學(xué)、香港科技大學(xué)宣布推出全新圖生視頻模型"Follow-your-Pose-V2”,實現(xiàn)單張圖片多人動作驅(qū)動。用戶只需輸入一張人物圖片和一段動作視頻,模型便能巧妙地讓圖片中的人物跟隨視頻中的動作舞動,生成的視頻長度可達10秒。模型還具備強大的泛化能力,無論是年齡、服裝各異的人物是背景雜亂的場景,亦或是動作復(fù)雜的視頻,它都能輕松應(yīng)對,生?
騰訊公司開源了一款創(chuàng)新的模型V-Express,它能夠使用人像照片生成視頻。這一技術(shù)通過一系列逐步丟棄的操作來平衡不同控制信號,使得音頻等較弱的信號得以有效利用,實現(xiàn)對姿態(tài)、輸入圖像和音頻的綜合控制。將繼續(xù)深入研究V-Express方法,并探索其在更廣泛領(lǐng)域的應(yīng)用,以促進肖像視頻生成領(lǐng)域的進一步發(fā)展。
快手公司推出了一款名為「可靈」的全新視頻生成大模型,該模型采用了與Sora相似的技術(shù)路線,并結(jié)合了快手自研的多項技術(shù)創(chuàng)新。這款模型不僅能夠生成長達2分鐘、30fps、1080p分辨率的超長視頻,支持多種寬高比能模擬物理世界的特性,精準建模復(fù)雜運動。對AI視頻創(chuàng)作感興趣的用戶,可以在快影APP中體驗「可靈」大模型的功能。