**劃重點(diǎn):**
1. ?? **Ego-Exo4D:** Meta發(fā)布支持視頻學(xué)習(xí)和多模態(tài)感知的數(shù)據(jù)集,涵蓋運(yùn)動(dòng)、音樂(lè)、烹飪等復(fù)雜人類活動(dòng),可用于增強(qiáng)現(xiàn)實(shí)、機(jī)器學(xué)習(xí)和社交網(wǎng)絡(luò)。
2. ?? **Seamless Communication:** 推出四個(gè)AI研究模型,旨在跨越語(yǔ)言界限實(shí)現(xiàn)更自然、真實(shí)的表達(dá)和快速翻譯,包括保留語(yǔ)音表達(dá)和語(yǔ)境的SeamlessExpressive等功能。
3. ?? **Audiobox:** Meta的新音頻生成模型,通過(guò)語(yǔ)音輸入和自然語(yǔ)言文本提示生成聲音和音效,以創(chuàng)造定制的音頻文件,為研究人員和學(xué)術(shù)機(jī)構(gòu)提供先進(jìn)的音頻生成研究支持。
站長(zhǎng)之家(ChinaZ.com)12月1日 消息:為慶祝Meta基礎(chǔ)人工智能研究(FAIR)團(tuán)隊(duì)成立十周年,公司隆重推出三個(gè)創(chuàng)新的人工智能項(xiàng)目,展示了引人注目的演示。
Ego-Exo4D:
官方項(xiàng)目介紹網(wǎng)址:https://ai.meta.com/blog/ego-exo4d-video-learning-perception/
該項(xiàng)目以數(shù)據(jù)集及基準(zhǔn)測(cè)試的形式呈現(xiàn),旨在支持視頻學(xué)習(xí)和多模態(tài)感知的人工智能研究。由Meta的FAIR、Project Aria,以及來(lái)自全球15所大學(xué)的合作伙伴在兩年內(nèi)共同收集,Ego-Exo4D捕捉了佩戴Project Aria頭戴設(shè)備的參與者的“自我中心”視角和周圍攝像機(jī)的“外部中心”視角。
這一數(shù)據(jù)集聚焦于復(fù)雜的人類活動(dòng),如運(yùn)動(dòng)、音樂(lè)、烹飪、舞蹈和自行車維修。Meta認(rèn)為,該數(shù)據(jù)集在增強(qiáng)現(xiàn)實(shí)系統(tǒng)、機(jī)器人學(xué)習(xí)以及社交網(wǎng)絡(luò)等領(lǐng)域具有廣泛應(yīng)用前景。1,400多小時(shí)的視頻數(shù)據(jù)將于12月以開源形式發(fā)布,并計(jì)劃于明年進(jìn)行Ego-Exo4D公開基準(zhǔn)競(jìng)賽。
Seamless Communication:
官方項(xiàng)目介紹網(wǎng)址:https://ai.meta.com/blog/seamless-communication/
該項(xiàng)目旨在通過(guò)四個(gè)AI研究模型實(shí)現(xiàn)更自然、真實(shí)的跨語(yǔ)言交流。包括保留語(yǔ)音表達(dá)和語(yǔ)境的SeamlessExpressive,以及提供約兩秒延遲的語(yǔ)音和文本翻譯的SeamlessStreaming。此外,SeamlessM4T v2是一個(gè)多語(yǔ)言、多任務(wù)的模型,用于輕松實(shí)現(xiàn)語(yǔ)音和文本之間的交流。最終,Seamless將集成SeamlessExpressive、SeamlessStreaming和SeamlessM4T v2的功能于一個(gè)模型中。
Meta還發(fā)布了SeamlessExpressive的演示,用戶可以在其中將其語(yǔ)音翻譯成其他語(yǔ)言,增強(qiáng)了跨語(yǔ)言溝通的交互性。
官方演示網(wǎng)址:https://seamless.metademolab.com/expressive/
Audiobox:
官方項(xiàng)目介紹網(wǎng)址:https://ai.meta.com/blog/audiobox-generating-audio-voice-natural-language-prompts/
這是Meta全新的音頻生成模型,通過(guò)結(jié)合語(yǔ)音輸入和自然語(yǔ)言文本提示,能夠生成聲音和音效,從而更輕松地創(chuàng)建用于不同用途的定制音頻文件。相比其前身Voicebox,Audiobox通過(guò)允許用戶使用自然語(yǔ)言提示來(lái)創(chuàng)建所需的聲音或語(yǔ)音類型,提供了更強(qiáng)的可控性。
Meta表示,該模型將首先提供給一組選擇的研究人員和學(xué)術(shù)機(jī)構(gòu),以推動(dòng)音頻生成研究的發(fā)展,并確保人工智能的負(fù)責(zé)任發(fā)展。
這三個(gè)項(xiàng)目的推出標(biāo)志著Meta FAIR團(tuán)隊(duì)十年來(lái)在人工智能領(lǐng)域取得的巨大成就,并為未來(lái)的技術(shù)發(fā)展和創(chuàng)新奠定了堅(jiān)實(shí)基礎(chǔ)。
(舉報(bào))