歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/
1、騰訊SaaS產(chǎn)品智能化升級(jí) 全面接入混元模型
騰訊宣布旗下協(xié)作SaaS產(chǎn)品全面接入混元模型,實(shí)現(xiàn)軟件服務(wù)智能化。騰訊樂(lè)享、騰訊電子簽、騰訊問(wèn)卷等產(chǎn)品已實(shí)現(xiàn)智能化升級(jí),為用戶(hù)提供更智能、高效的服務(wù)?;煸竽P鸵褦U(kuò)展至萬(wàn)億級(jí)參數(shù)規(guī)模,在國(guó)內(nèi)率先采用混合專(zhuān)家模型結(jié)構(gòu),性能表現(xiàn)優(yōu)異。外部開(kāi)發(fā)者和企業(yè)可以通過(guò)騰訊云上API直接調(diào)用騰訊混元能力,解決用戶(hù)痛點(diǎn)。
【AiBase提要:】
?? 騰訊SaaS產(chǎn)品實(shí)現(xiàn)智能化升級(jí),提供更智能、高效的服務(wù)。
?? 混元大模型擴(kuò)展至萬(wàn)億級(jí)參數(shù)規(guī)模,性能在多方面表現(xiàn)優(yōu)異。
?? 外部開(kāi)發(fā)者和企業(yè)可通過(guò)騰訊云API調(diào)用混元能力,解決不同場(chǎng)景下的痛點(diǎn)。
2、微軟發(fā)布iPhone可運(yùn)行的ChatGPT級(jí)AI模型Phi-3系列 挑戰(zhàn)OpenAI地位
微軟最新推出的Phi-3系列小型AI模型在AI領(lǐng)域引起轟動(dòng),尤其是Phi-3-mini模型在多項(xiàng)基準(zhǔn)測(cè)試中超越了參數(shù)更大的Llama3模型。該系列模型能在iPhone14Pro和iPhone15上實(shí)現(xiàn)每秒12token的運(yùn)行速度,達(dá)到了ChatGPT水平。微軟強(qiáng)調(diào)訓(xùn)練數(shù)據(jù)的重要性,通過(guò)精心設(shè)計(jì)數(shù)據(jù)和訓(xùn)練方法提升模型性能。
【AiBase提要:】
?? Phi-3-mini模型參數(shù)僅3.8B,性能超越8B參數(shù)的Llama3模型。
?? Phi-3系列包括Phi-3-small和Phi-3-medium版本,性能優(yōu)越。
?? 微軟團(tuán)隊(duì)通過(guò)精心設(shè)計(jì)訓(xùn)練數(shù)據(jù)和獨(dú)特訓(xùn)練方法提升了Phi-3系列模型的性能。
詳情鏈接:https://arxiv.org/pdf/2404.14219.pdf
3、全國(guó)首例AI聲音侵權(quán)案一審宣判 自己聲音被AI化出售獲賠25萬(wàn)元
這篇文章報(bào)道了全國(guó)首例AI聲音侵權(quán)案的一審判決結(jié)果,涉及配音師聲音被AI技術(shù)濫用的案件引起社會(huì)廣泛關(guān)注。法院裁定被告未經(jīng)授權(quán)擅自使用配音師聲音開(kāi)發(fā)AI產(chǎn)品構(gòu)成侵權(quán),需賠償25萬(wàn)元。判決強(qiáng)調(diào)聲音作為人格權(quán)益應(yīng)受法律保護(hù),為聲音創(chuàng)作者提供了重要法律保障。
【AiBase提要:】
?? 首例AI聲音侵權(quán)案一審判決結(jié)果:被告未經(jīng)授權(quán)使用配音師聲音開(kāi)發(fā)AI產(chǎn)品,需賠償25萬(wàn)元。
?? 法院強(qiáng)調(diào)聲音作為獨(dú)特人格權(quán)益應(yīng)受法律保護(hù),未經(jīng)授權(quán)擅自使用聲音構(gòu)成侵權(quán)行為。
????? 判決為聲音創(chuàng)作者提供了重要法律保障,將堅(jiān)決維護(hù)聲音權(quán)益并打擊侵權(quán)行為。
4、中文聊天模型Llama3-8B-Chinese-Chat發(fā)布
這篇文章介紹了基于Meta-Llama-3-8B-Instruct模型經(jīng)過(guò)ORPO方法微調(diào)的中文聊天模型Llama3-8B-Chinese-Chat。該模型減少了中英混合回答和表情符號(hào)的使用,使得回答更正式和專(zhuān)業(yè)。它在理解中文問(wèn)題意圖、提供恰當(dāng)回答、拒絕不當(dāng)請(qǐng)求等方面表現(xiàn)出色。
【AiBase提要:】
?? Llama3-8B-Chinese-Chat是基于Meta-Llama-3-8B-Instruct模型通過(guò)ORPO方法微調(diào)的中文聊天模型,減少了中英混合回答和表情符號(hào)的使用。
?? ORPO方法利用賠率比概念調(diào)整模型偏好設(shè)置,優(yōu)化模型在特定任務(wù)中的表現(xiàn),Llama3-8B-Chinese-Chat模型使用ORPO優(yōu)化中英文生成偏好。
?? Llama3-8B-Chinese-Chat模型在安全、道德、數(shù)學(xué)問(wèn)題解答、寫(xiě)作和編程示例等方面表現(xiàn)出色,提供更準(zhǔn)確、專(zhuān)業(yè)的回答和示例代碼。
詳情鏈接:https://top.aibase.com/tool/llama3-8b-chinese-chat
5、Adobe發(fā)布視頻超分辨率項(xiàng)目VideoGigaGAN
Adobe最近推出了視頻超分辨率項(xiàng)目VideoGigaGAN,該項(xiàng)目在視頻放大技術(shù)方面取得了顯著進(jìn)展,能將視頻放大至原始分辨率的8倍,保持時(shí)間連貫性和高頻細(xì)節(jié)清晰度。這一技術(shù)將視頻處理帶入新階段,極大擴(kuò)展了視頻內(nèi)容的應(yīng)用范圍和質(zhì)量。
【AiBase提要:】
? VideoGigaGAN實(shí)現(xiàn)視頻放大至8倍原始分辨率,保持時(shí)間連貫性和高頻細(xì)節(jié)清晰度。
?? Adobe優(yōu)化GigaGAN模型,增強(qiáng)視頻穩(wěn)定性,展示卓越性能。
?? VideoGigaGAN提升視頻視覺(jué)質(zhì)量,適應(yīng)不同風(fēng)格視頻內(nèi)容,具有廣泛的應(yīng)用潛力。
詳情鏈接:https://top.aibase.com/tool/videogigagan
6、Midjourney發(fā)布random功能 可基于提示詞生成完全隨機(jī)的圖像風(fēng)格
Midjourney發(fā)布了一個(gè)有趣的功能,可以基于提示詞生成完全隨機(jī)的圖像風(fēng)格。用戶(hù)可以通過(guò)隨機(jī)生成的圖像風(fēng)格來(lái)探索不同的創(chuàng)作方向,同時(shí)還可以與其他用戶(hù)進(jìn)行實(shí)時(shí)交流和分享,共同探討創(chuàng)作過(guò)程中的靈感和想法。這一功能的推出將進(jìn)一步豐富用戶(hù)的圖像生成體驗(yàn),為他們提供更多的創(chuàng)作選擇和交流平臺(tái)。
【AiBase提要:】
?? 可基于提示詞生成完全隨機(jī)的圖像風(fēng)格
?? 用戶(hù)可以通過(guò)Room功能進(jìn)行實(shí)時(shí)交流和分享
?? 探索不同的創(chuàng)作方向,豐富用戶(hù)的圖像生成體驗(yàn)
7、AI獨(dú)角獸月之暗面創(chuàng)始人楊植麟套現(xiàn)數(shù)千萬(wàn)美金 官方回應(yīng)
楊植麟作為月之暗面創(chuàng)始人,通過(guò)個(gè)人股份銷(xiāo)售套現(xiàn)數(shù)千萬(wàn)美元,引起廣泛關(guān)注。公司成立僅一年便獲得巨額融資,估值超過(guò)25億美元。月之暗面的成功不僅在估值上體現(xiàn),旗艦產(chǎn)品Kimi Chat的成功也備受矚目。
【AiBase提要:】
?? 月之暗面創(chuàng)始人楊植麟通過(guò)個(gè)人股份銷(xiāo)售套現(xiàn)數(shù)千萬(wàn)美元,公司估值超過(guò)25億美元。
?? 月之暗面創(chuàng)立僅一年便迅速崛起,成為中國(guó)大模型領(lǐng)域獨(dú)角獸之一。
?? 月之暗面旗艦產(chǎn)品Kimi Chat憑借“長(zhǎng)文本”功能在AI大模型領(lǐng)域脫穎而出,引發(fā)資本市場(chǎng)熱潮。
8、毫不猶豫!小扎自曝愿開(kāi)源100億美元模型 直言2025年之前AGI不可能實(shí)現(xiàn)
在最新的播客訪(fǎng)談中,小扎展現(xiàn)了開(kāi)源英雄形象,表示愿意開(kāi)源價(jià)值100億美元模型,強(qiáng)調(diào)開(kāi)源降低成本促進(jìn)創(chuàng)新,但也需綜合考慮經(jīng)濟(jì)利弊。他對(duì)2025年之前AGI實(shí)現(xiàn)持悲觀態(tài)度,認(rèn)為能源短缺是瓶頸,解決可能需數(shù)十年。批評(píng)蘋(píng)果和谷歌獨(dú)占移動(dòng)生態(tài),希望通過(guò)開(kāi)源改變局面,防范競(jìng)爭(zhēng)對(duì)手威脅。對(duì)于人工智能發(fā)展瓶頸,擔(dān)憂(yōu)能源限制和數(shù)據(jù)中心挑戰(zhàn),持保留態(tài)度未來(lái)AI模型能力提升。
【AiBase提要:】
?? 小扎愿意開(kāi)源價(jià)值100億美元模型,認(rèn)為開(kāi)源降低成本促進(jìn)創(chuàng)新,但需綜合考慮經(jīng)濟(jì)利弊。
?? 對(duì)2025年之前AGI實(shí)現(xiàn)持悲觀態(tài)度,認(rèn)為能源短缺是瓶頸,解決可能需數(shù)十年。
?? 批評(píng)蘋(píng)果和谷歌獨(dú)占移動(dòng)生態(tài),希望通過(guò)開(kāi)源改變局面,防范競(jìng)爭(zhēng)對(duì)手威脅。
9、字節(jié)跳動(dòng)發(fā)布圖像模型蒸餾算法Hyper-SD
這篇文章介紹了字節(jié)跳動(dòng)的Lightning團(tuán)隊(duì)發(fā)布的新圖像模型蒸餾算法Hyper-SD,該算法在圖像處理和機(jī)器學(xué)習(xí)領(lǐng)域取得重要進(jìn)展。通過(guò)創(chuàng)新的方法提升了模型性能,在保持模型精簡(jiǎn)的同時(shí)提高了推理速度和效率。
【AiBase提要:】
?? 分段軌跡一致性蒸餾:Hyper-SD技術(shù)確保了原始ODE軌跡的完整性。
?? 人類(lèi)反饋學(xué)習(xí)機(jī)制:引入人類(lèi)反饋學(xué)習(xí),提升模型表現(xiàn),減少性能損失。
?? 分?jǐn)?shù)蒸餾技術(shù):增強(qiáng)了模型在低步推理下的生成能力,進(jìn)一步提升性能。
詳情鏈接:https://top.aibase.com/tool/hyper-sd
10、AI音樂(lè)生成工具AI Jukebox 輸入提示詞選擇曲風(fēng)即可創(chuàng)作音樂(lè)
AI Jukebox是一款利用人工智能技術(shù)的音樂(lè)生成工具,通過(guò)Hugging Face平臺(tái)提供服務(wù)。它簡(jiǎn)化音樂(lè)創(chuàng)作過(guò)程,智能化且用戶(hù)友好。用戶(hù)可以通過(guò)輸入提示詞指導(dǎo)AI生成特定風(fēng)格音樂(lè),實(shí)現(xiàn)智能化音樂(lè)創(chuàng)作。AI Jukebox鼓勵(lì)人機(jī)合作模式,為音樂(lè)人和音樂(lè)愛(ài)好者提供靈感和創(chuàng)作工具,探索無(wú)限可能性。
【AiBase提要:】
?? 本地化模型加載: 用戶(hù)打開(kāi)AI Jukebox的網(wǎng)頁(yè)后,系統(tǒng)自動(dòng)加載生成模型,無(wú)需復(fù)雜設(shè)置。
?? 基于提示詞的音樂(lè)生成: 用戶(hù)通過(guò)輸入特定提示詞指導(dǎo)AI生成特定風(fēng)格音樂(lè),包括音樂(lè)類(lèi)型、情感、樂(lè)器等描述。
?? 人機(jī)合作模式: AI Jukebox鼓勵(lì)用戶(hù)與AI合作,探索新的音樂(lè)創(chuàng)作方式,提供靈感和創(chuàng)作工具。
詳情鏈接:https://top.aibase.com/tool/ai-jukebox
11、虛擬人聊天系統(tǒng)Live2D
這篇文章介紹了基于Unity開(kāi)發(fā)的Live2D虛擬人聊天系統(tǒng)項(xiàng)目,利用Live2D技術(shù)展現(xiàn)動(dòng)態(tài)虛擬人形象,提供流暢的動(dòng)畫(huà)效果,增強(qiáng)用戶(hù)交互體驗(yàn)。項(xiàng)目集成了Azure、OpenAI和APISpace等API支持自然語(yǔ)言處理和生成,實(shí)現(xiàn)實(shí)時(shí)文本交流。同時(shí)支持圖像處理和人臉檢測(cè),高清分辨率顯示,以及自定義擴(kuò)展功能。
【AiBase提要:】
????? Live2D虛擬人形象集成,提供流暢的動(dòng)畫(huà)效果,增強(qiáng)用戶(hù)體驗(yàn)。
?? 實(shí)時(shí)聊天功能,虛擬人能理解并回應(yīng)用戶(hù)文本輸入,實(shí)現(xiàn)實(shí)時(shí)交流。
?? 圖像處理和人臉檢測(cè),讓虛擬人更好地響應(yīng)用戶(hù)視覺(jué)輸入。
詳情鏈接:https://top.aibase.com/tool/live2d-virtual-human-for-chatting-based-on-unity
12、港大與浙大聯(lián)合研發(fā)SC-GS模型
本文介紹了香港大學(xué)CVMI實(shí)驗(yàn)室與3D大模型公司VAST以及浙江大學(xué)聯(lián)合研究團(tuán)隊(duì)提出的SC-GS模型,該模型在數(shù)字資產(chǎn)創(chuàng)造和3D重建領(lǐng)域取得突破性成果。通過(guò)稀疏控制點(diǎn)實(shí)時(shí)交互編輯,實(shí)現(xiàn)了對(duì)動(dòng)態(tài)場(chǎng)景的高效編輯和合成,展現(xiàn)了巨大潛力。
【AiBase提要:】
?? SC-GS模型在新視角合成領(lǐng)域掀起革命性浪潮,展現(xiàn)出對(duì)動(dòng)態(tài)高斯的稀疏控制點(diǎn)進(jìn)行實(shí)時(shí)交互編輯的能力。
?? 用戶(hù)可以通過(guò)簡(jiǎn)單的鼠標(biāo)拖拽和鍵盤(pán)組合按鍵操作,輕松實(shí)現(xiàn)對(duì)重建動(dòng)態(tài)場(chǎng)景的編輯。
?? SC-GS模型通過(guò)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)控制點(diǎn)運(yùn)動(dòng)狀態(tài),驅(qū)動(dòng)整個(gè)場(chǎng)景中的動(dòng)態(tài)高斯進(jìn)行變形,提升了動(dòng)態(tài)新視角合成的性能。
詳情鏈接:https://top.aibase.com/tool/sc-gs
13、新視頻分割技術(shù)SAM 可高效識(shí)別移動(dòng)物體
本文介紹了在視頻分割領(lǐng)域,研究團(tuán)隊(duì)探索新的視頻對(duì)象分割技術(shù),通過(guò)結(jié)合SAM模型和光流技術(shù),提高了視頻分割性能。兩種模型展示了潛力,實(shí)現(xiàn)了顯著性能提升,并將分割技術(shù)擴(kuò)展到整個(gè)視頻序列,實(shí)現(xiàn)物體追蹤。這些技術(shù)提升了視頻分割精度和效率,降低了計(jì)算復(fù)雜度,對(duì)多個(gè)應(yīng)用場(chǎng)景具有重要意義。
【AiBase提要:】
?? SAM與光流結(jié)合的模型展示了提高視頻分割性能的潛力。
?? SAM與RGB圖像結(jié)合的模型增強(qiáng)了模型對(duì)視頻中物體運(yùn)動(dòng)的識(shí)別和分割能力。
?? 將基于幀的分割方法擴(kuò)展到整個(gè)視頻序列,實(shí)現(xiàn)了物體在視頻連續(xù)幀中的身份追蹤。
詳情鏈接:https://www.robots.ox.ac.uk/~vgg/research/flowsam/
(舉報(bào))