11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購(gòu)吧!
9月27日,2024年“抖音商城雙11好物節(jié)”招商大會(huì)正式啟動(dòng)。平臺(tái)對(duì)本次雙11大促的報(bào)名規(guī)則、核心玩法以及平臺(tái)保障等做了詳細(xì)介紹,幫助廣大商家熟悉活動(dòng)信息與激勵(lì)政策,以便更充分、精準(zhǔn)地為雙11大促蓄力。抖音電商相關(guān)負(fù)責(zé)人表示,在即將到來的雙11大促中,平臺(tái)將持續(xù)挖掘貨架場(chǎng)和內(nèi)容場(chǎng)增量,為消費(fèi)者帶來更多優(yōu)價(jià)好物,同時(shí)助力商家提質(zhì)增效。
【新智元導(dǎo)讀】老黃預(yù)言AI生成游戲的未來,很快就要實(shí)現(xiàn)了!在一年一度Roblox開發(fā)者大會(huì)上,CEO官宣了3D基礎(chǔ)模型,僅用文本提示便可生成3D物體。便要瞄準(zhǔn)10億玩家,AI視頻游戲大爆發(fā)時(shí)代不遠(yuǎn)了?!窤I正在變得越來越好,越來越多地成為人們的補(bǔ)充,它允許我們的很多員工執(zhí)行更高級(jí)別的職能,或者更深入研究例外情況等等。
在數(shù)字化時(shí)代的浪潮中,電子屏幕幾乎成為了我們生活的延伸,無論是工作還是娛樂,都離不開它們的陪伴。長(zhǎng)時(shí)間盯著屏幕,眼睛的負(fù)擔(dān)日益加重,護(hù)眼臺(tái)燈因此成為了我們生活中不可或缺的伙伴。在市場(chǎng)上眾多護(hù)眼臺(tái)燈中,巧視光9512臺(tái)燈的超高性價(jià)比使其成為了消費(fèi)者的首選,是您不容錯(cuò)過的理想選擇。
618除了“買買買”之外,更多的是“看看評(píng)測(cè)”和“貨比三家”,尤其是面對(duì)網(wǎng)上層出不窮的種草清單和好物推薦時(shí),我們更需要好好“糾結(jié)”一番。在不同產(chǎn)品、價(jià)格、配置、平臺(tái)之間進(jìn)行比對(duì)時(shí),一款效率出色的大屏設(shè)備將成為必須。轉(zhuǎn)眼間6月就要過半,618嘉年華也正式進(jìn)入了下半場(chǎng)的狂歡。
作為數(shù)字經(jīng)濟(jì)時(shí)代擴(kuò)內(nèi)需、穩(wěn)增長(zhǎng)和促轉(zhuǎn)型的重要?jiǎng)恿?,?shù)字消費(fèi)已成為當(dāng)前促消費(fèi)政策的重要抓手。2024年政府工作報(bào)告要求,“培育壯大新型消費(fèi),實(shí)施數(shù)字消費(fèi)、綠色消費(fèi)、健康消費(fèi)促進(jìn)政策”。推動(dòng)我國(guó)數(shù)字經(jīng)濟(jì)健康發(fā)展,共創(chuàng)繁榮的數(shù)字消費(fèi)新時(shí)代。
YOLOv10是一種實(shí)時(shí)識(shí)別物體的模型,在計(jì)算成本和檢測(cè)性能之間取得了有效平衡。研究人員在YOLOs的架構(gòu)設(shè)計(jì)、優(yōu)化目標(biāo)、數(shù)據(jù)增強(qiáng)策略等方面進(jìn)行了探索,取得了顯著進(jìn)展。這對(duì)于實(shí)際應(yīng)用中的目標(biāo)檢測(cè)任務(wù)具有重要意義。
據(jù)TheInformation消息,OpenAI正籌備展示一種革命性的人機(jī)對(duì)話技術(shù)。這一技術(shù)將結(jié)合聲音和文本,不僅能與用戶進(jìn)行流暢的交流具備識(shí)別物體和圖像的能力,為用戶帶來前所未有的交互體驗(yàn)。隨著技術(shù)的不斷進(jìn)步,我們有理由相信,未來的AI將更加智能、更加人性化,為人類生活帶來更多便利和驚喜。
在創(chuàng)建沉浸式虛擬體驗(yàn)時(shí),實(shí)現(xiàn)真實(shí)物體交互至關(guān)重要。針對(duì)新型交互合成真實(shí)的3D物體動(dòng)態(tài)仍然是一項(xiàng)重大挑戰(zhàn)。PhysDreamer通過使靜態(tài)3D物體能夠以物理合理的方式動(dòng)態(tài)響應(yīng)互動(dòng)刺激,邁出了向更具吸引力和真實(shí)感的虛擬體驗(yàn)的一步。
在未知靜態(tài)照明條件下拍攝的姿勢(shì)圖像中恢復(fù)物體材質(zhì)是一項(xiàng)挑戰(zhàn)性任務(wù)。近期的研究通過神經(jīng)網(wǎng)絡(luò)表示材料,并通過基于物理的渲染優(yōu)化模型參數(shù)來解決這一問題。通過廣泛實(shí)驗(yàn)驗(yàn)證,他們的方法在材料回收方面取得了最先進(jìn)的性能,為物體材質(zhì)恢復(fù)領(lǐng)域帶來了新的突破。
在視頻分割領(lǐng)域,SegmentAnything模型被用于探索新的視頻對(duì)象分割技術(shù)。研究團(tuán)隊(duì)測(cè)試了兩種不同的模型,旨在結(jié)合SAM的分割能力和光流技術(shù)的優(yōu)勢(shì),以提高視頻分割的性能。具體的技術(shù)細(xì)節(jié)、模型性能指標(biāo)以及未來的研究方向尚未詳細(xì)公布,但這些初步的研究成果已經(jīng)為視頻分割技術(shù)的發(fā)展提供了新的方向和可能性。
谷歌今天發(fā)布了一個(gè)名為ObjectDrop的圖像局部重繪項(xiàng)目,其效果令人印象深刻。這個(gè)項(xiàng)目成功模擬了物體對(duì)場(chǎng)景的影響,包括遮擋、反射和陰影,實(shí)現(xiàn)了逼真的物體移除和插入。這一成果對(duì)于圖像處理和計(jì)算機(jī)視覺領(lǐng)域來說,是一個(gè)重要的突破。
ObjectDrop是一種監(jiān)督方法,旨在實(shí)現(xiàn)照片級(jí)真實(shí)的物體刪除和插入。它利用了一個(gè)計(jì)數(shù)事實(shí)數(shù)據(jù)集和自助監(jiān)督技術(shù)。ObjectDrop適用于需要從圖像中刪除或插入物體以獲得理想結(jié)果的各種場(chǎng)景,如圖像編輯、視覺特效合成、3D建模等。
DeepDataSpace推出了T-Rex2,一種革新性的目標(biāo)檢測(cè)技術(shù),旨在解決傳統(tǒng)目標(biāo)檢測(cè)模型的封閉集問題。傳統(tǒng)模型局限于事先確定的類別集,需要針對(duì)特定任務(wù)進(jìn)行調(diào)整和大量訓(xùn)練數(shù)據(jù)。通過Demo和API,用戶可以體驗(yàn)T-Rex2的能力,并探索其在各領(lǐng)域的潛在應(yīng)用。
快手科技聯(lián)合浙江大學(xué)、新加坡國(guó)立大學(xué)表演實(shí)驗(yàn)室研究團(tuán)隊(duì)提出了一種名為DragAnything的新方法,通過實(shí)體表示實(shí)現(xiàn)了對(duì)任何物體的運(yùn)動(dòng)控制。研究團(tuán)隊(duì)通過分析發(fā)現(xiàn),DragNUWA的像素運(yùn)動(dòng)軌跡并不能很好地代表物體的整體運(yùn)動(dòng),因?yàn)閱蝹€(gè)點(diǎn)無法表示整個(gè)實(shí)體。DragAnything方法在視頻生成領(lǐng)域取得了顯著進(jìn)展,為實(shí)現(xiàn)對(duì)任何物體的精確運(yùn)動(dòng)控制提供了新的思路和方法。
由北京大學(xué)、南洋理工大學(xué)S-Lab和上海人工智能實(shí)驗(yàn)室聯(lián)合研究的團(tuán)隊(duì)推出的大型多視角高斯模型引起廣泛關(guān)注。LGM以其核心模塊LargeMulti-ViewGaussianModel為基礎(chǔ),采用了一種新穎的方法,能夠在僅5秒的時(shí)間內(nèi)從單一視角圖片或文本輸入中生成高分辨率高質(zhì)量的3D物體。LGM通過創(chuàng)新的3D表示和骨干結(jié)構(gòu),以及高效的訓(xùn)練方法,實(shí)現(xiàn)了在高分辨率3D內(nèi)容生成方面的顯著進(jìn)展。
"AnythinginAnyScene"是一項(xiàng)新穎的技術(shù),可以在現(xiàn)有的動(dòng)態(tài)視頻中無縫地插入任何物體,從增強(qiáng)視頻的視覺效果和真實(shí)感。該技術(shù)的主要特點(diǎn)包括準(zhǔn)確放置物體、真實(shí)模擬光照和陰影效果以及保持視覺風(fēng)格一致性。4、為了在連續(xù)的視頻幀中保持物體的穩(wěn)定性和連貫性,采用動(dòng)態(tài)跟蹤和視頻穩(wěn)定技術(shù),確保隨著場(chǎng)景變化,插入的物體能夠自然地移動(dòng)和適應(yīng)新的視角和位置,包?
Runway更新了Multi-MotionBrush運(yùn)動(dòng)筆刷功能。這是Gen-2MotionBrush的一個(gè)新版本,目前處于早期測(cè)試階段。通過Runway的Multi-MotionBrush運(yùn)動(dòng)筆刷功能,用戶可以更加方便地探索圖像的動(dòng)態(tài)表現(xiàn),為他們的創(chuàng)作帶來更多的可能性。
瑞士蘇黎世聯(lián)邦理工學(xué)院和Google蘇黎世的研究人員聯(lián)合提出了一項(xiàng)名為InseRF的新技術(shù),該技術(shù)引起了科技界的廣泛關(guān)注。該技術(shù)通過文本提示和2D邊界框,成功在3D場(chǎng)景中生成一致的物體,無需明確的3D信息。隨著技術(shù)的不斷發(fā)展和改進(jìn),InseRF有望成為未來生成式AI領(lǐng)域的重要技術(shù)之一。
1月10日,京東與華為宣布合作,正式啟動(dòng)鴻蒙原生應(yīng)用開發(fā)。鴻蒙原生版京東APP將基于HarmonyOSNEXT的全場(chǎng)景無縫流轉(zhuǎn)、原生智能等,為消費(fèi)者打造更流暢、更智能、更安全的購(gòu)物體驗(yàn)。未來京東與華為的合作也將為消費(fèi)者帶來更多更好的產(chǎn)品與更貼心的服務(wù),共同開啟新的消費(fèi)場(chǎng)景與可能性。
日本立命館大學(xué)的HiroyukiTomiyama教授領(lǐng)導(dǎo)的研究團(tuán)隊(duì)最近開發(fā)了一種名為“DynamicPoint-PixelFeatureAlignmentNetwork”的創(chuàng)新模型,旨在解決3D物體檢測(cè)中對(duì)小目標(biāo)檢測(cè)困難的問題。該模型采用了多模態(tài)方法,巧妙地結(jié)合了3DLiDAR數(shù)據(jù)和2D圖像,以在惡劣天氣條件下提高性能?!盌PPFA?Net的推出標(biāo)志著多模態(tài)3D物體檢測(cè)領(lǐng)域的一項(xiàng)重大進(jìn)展,有望為深度學(xué)習(xí)感知系統(tǒng)的原始數(shù)據(jù)預(yù)標(biāo)注提供新的可能性,從顯著降低手動(dòng)注釋的成本,加速該領(lǐng)域的發(fā)展。
微軟最近發(fā)布了DragNUWA1.5版本,這個(gè)新版本的功能讓用戶在通過圖像生成視頻之前,能夠在圖像上畫出對(duì)應(yīng)方向的箭頭標(biāo)記。如果你標(biāo)記的不是具體的物體,鏡頭就會(huì)按照你標(biāo)記的方向運(yùn)動(dòng)。設(shè)置完成后,用戶可以使用pythonDragNUWA_demo.py命令啟動(dòng)Gradio演示,從能夠拖動(dòng)圖像并實(shí)時(shí)觀察其動(dòng)畫效果。
淘寶發(fā)布了關(guān)于變更《淘寶平臺(tái)爭(zhēng)議處理規(guī)則》的公示通知,該規(guī)則已于昨日正式生效。這一變更意味著繼拼多多和抖音之后,淘寶也推出了“僅退款”的售后機(jī)制。對(duì)于“7天無理由退貨”商品或買家拒收的商品,支持買家在拒簽后申請(qǐng)退款。
來自華中科技大學(xué)、字節(jié)跳動(dòng)和約翰斯·霍普金斯大學(xué)的研究人員推出了一款名為GLEE的全新通用物體級(jí)別基礎(chǔ)模型,為圖像和視頻分析帶來了全新的可能性。這一技術(shù)突破依賴深度學(xué)習(xí)的神奇,使計(jì)算機(jī)視覺系統(tǒng)能夠像虛擬偵探一樣,在數(shù)字體驗(yàn)的畫布上識(shí)別、跟蹤和理解各種物體。研究人員還探索了在訓(xùn)練過程中使用廣泛的圖像-標(biāo)題對(duì),類似于DALL-E模型,從提高GLEE生成詳細(xì)
Meta公司最新宣布將在其Ray-Ban智能眼鏡上推出引人注目的多模態(tài)AI功能,為用戶提供更智能、交互式的體驗(yàn)。該功能利用眼鏡的攝像頭和麥克風(fēng),使Meta的AI助手能夠感知用戶周圍的視聽信息,并做出相應(yīng)的反應(yīng)。對(duì)于智能眼鏡市場(chǎng)言,這一步或許將開創(chuàng)更為多元化的應(yīng)用場(chǎng)景,為用戶帶來更加便捷和智能的生活體驗(yàn)。
Meta宣布將開始推出其多模態(tài)AI功能的早期訪問測(cè)試,這些功能將應(yīng)用于MetaRay-Ban智能眼鏡,能夠通過眼鏡的攝像頭和麥克風(fēng)告知用戶所看和所聽的內(nèi)容。馬克·扎克伯格在Instagram的一個(gè)視頻中展示了這次更新,他詢問眼鏡建議哪種褲子與他手里拿著的襯衫相配。有關(guān)如何加入的說明可以在此處找到。
視頻生成領(lǐng)域取得了顯著進(jìn)展,但對(duì)于視頻中的攝像機(jī)和物體運(yùn)動(dòng)的準(zhǔn)確控制仍然是一個(gè)挑戰(zhàn)。傳統(tǒng)方法往往集中在其中一種運(yùn)動(dòng)類型,或者在兩者之間沒有明確的區(qū)分,從限制了運(yùn)動(dòng)控制的多樣性。實(shí)驗(yàn)結(jié)果表明,MotionCtrl相對(duì)于現(xiàn)有方法在運(yùn)動(dòng)控制方面表現(xiàn)出色,具有更高的生成視頻質(zhì)量和更靈活的運(yùn)動(dòng)控制能力。
Google即將在今年12月為其AI驅(qū)動(dòng)的搜索生成體驗(yàn)引入一系列更新,包括一項(xiàng)新功能,允許您借助人工智能構(gòu)想一個(gè)產(chǎn)品,然后在網(wǎng)絡(luò)上搜索現(xiàn)實(shí)世界中存在的類似產(chǎn)品?!肝覀冋谝胍环N新方式,通過AI驅(qū)動(dòng)的圖像生成技術(shù),將您腦海中的物品直接放入購(gòu)物車中,」Google消費(fèi)者購(gòu)物產(chǎn)品總監(jiān)JulieBlack在博客文章中表示。如果有誰能實(shí)現(xiàn)這一夢(mèng)想,它將顛覆互聯(lián)網(wǎng),并帶動(dòng)整個(gè)世?
一項(xiàng)由北卡教堂山、斯坦福、哥大、羅格斯等大學(xué)的研究人員合作開發(fā)的通用修正器LURE已經(jīng)面世,旨在應(yīng)對(duì)多模態(tài)大模型中出現(xiàn)的物體幻覺問題。這些幻覺問題包括物體共現(xiàn)、不確定性和物體位置,這些問題會(huì)對(duì)視覺摘要、推理等任務(wù)產(chǎn)生負(fù)面影響。LURE是一項(xiàng)有望解決多模態(tài)大模型中幻覺問題的重要工具,通過對(duì)關(guān)鍵因素的分析和修正,為這些模型提供更準(zhǔn)確的輸出,有望在多領(lǐng)域的人工智能應(yīng)用中產(chǎn)生積極影響。
在傳統(tǒng)的超市購(gòu)物過程中,消費(fèi)者往往需要經(jīng)歷產(chǎn)品辨識(shí)、人工稱重、加簽打印、掃碼收銀等一系列繁瑣操作流程,大量的商品碼不僅降低了員工的稱重效率,還導(dǎo)致消費(fèi)者等待時(shí)間增長(zhǎng),從而影響購(gòu)物體驗(yàn)。因此,提高稱重收銀效率并改善用戶體驗(yàn)一直是零售行業(yè)的迫切需求。針對(duì)這一現(xiàn)狀,趙一鳴零食勇于創(chuàng)新,率先采用AI技術(shù)優(yōu)化購(gòu)物流程,成為國(guó)內(nèi)首家使用AI稱重技術(shù)?
單目三維物體檢測(cè)是一個(gè)內(nèi)在不確定問題,因?yàn)閺膯我粓D像中準(zhǔn)確預(yù)測(cè)三維位置是具有挑戰(zhàn)性的?,F(xiàn)有的單目三維檢測(cè)知識(shí)蒸餾方法通常將激光雷達(dá)數(shù)據(jù)投影到圖像平面上,并相應(yīng)地訓(xùn)練教師網(wǎng)絡(luò)。該方法采用了基于深度學(xué)習(xí)的技術(shù),能夠在不犧牲準(zhǔn)確性的前提下提高檢測(cè)速度。