11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享。快來(lái)騰訊云選購(gòu)吧!
圖像、音樂(lè)能用AI生成,但出乎意料的是,氣味也行。一個(gè)名叫Osmo的初創(chuàng)公司宣布,他們成功地將氣味數(shù)字化了。我們?cè)隗w檢時(shí)會(huì)有一個(gè)AI通過(guò)它的機(jī)器鼻子來(lái)判斷我們的健康狀況。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、OpenAI成功收購(gòu)Chat.com域名OpenAI成功收購(gòu)知名老牌域名Chat.com,進(jìn)一步豐富了其在網(wǎng)絡(luò)領(lǐng)域的資產(chǎn)。公司正積極推進(jìn)產(chǎn)品測(cè)試與上線工作,未來(lái)可能拓展至教育和陪伴等多種應(yīng)用場(chǎng)景,提升用戶體驗(yàn)。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、InstantX圖像生成黑科技!微軟使用了OpenAI的GPT-4o進(jìn)行開發(fā),但系統(tǒng)與大型語(yǔ)言模型無(wú)關(guān),推薦使用強(qiáng)大的推理模型作為指揮者智能體。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、ElevenLabs推出AI語(yǔ)音生成工具VoiceDesignElevenLabs最新推出的AI語(yǔ)音生成工具VoiceDesign開創(chuàng)了AI配音領(lǐng)域的新紀(jì)元,通過(guò)簡(jiǎn)單的文本描述即可創(chuàng)建個(gè)性化語(yǔ)音,為用戶提供了直觀的文本提?
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、Pika1.5重磅上線四個(gè)新特效:從粉碎到消失,效果炸裂了!Pika1.5版本再度增加了四種新特效,讓用戶可以輕松生成炫酷動(dòng)畫。臺(tái)積電作為高級(jí)芯片制造商,受益于人工智能應(yīng)用的快速發(fā)展,業(yè)績(jī)得到顯著提升。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、文生圖卷起來(lái)了!智譜開源圖像生成模型CogView3生成速度比SDXL快10倍!智譜AI最新開源的CogView3和CogView-3Plus-3B為文生圖領(lǐng)域注入新活力,CogView3采用獨(dú)特的級(jí)聯(lián)擴(kuò)散方法,生成質(zhì)量超越SDXL,且推理速度快10倍。清言科技推出大會(huì)員體系,19元/月享受多項(xiàng)權(quán)益,讓更廣泛用戶群體負(fù)擔(dān)得起高級(jí)AI功能。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、谷歌推超強(qiáng)多模態(tài)模型實(shí)驗(yàn)版Gemini1.5Pro,排名領(lǐng)先GPT-4o、Claude-3.5Sonnet谷歌今天推出了Gemini1.5Pro實(shí)驗(yàn)版本0801,在人工智能領(lǐng)域取得重大突破。ItiNera系統(tǒng)通過(guò)結(jié)合空間優(yōu)化與大型語(yǔ)言模型,提供個(gè)性化的城市行程規(guī)劃服務(wù),為旅行者帶來(lái)全新的探索城市方式。
探索LiblibAI能為你帶來(lái)哪些改變?yōu)槭裁催x擇LiblibAI?LiblibAI不僅僅是一款產(chǎn)品——它是一項(xiàng)革命性的技術(shù),致力于通過(guò)先進(jìn)的AI技術(shù),幫助用戶快速實(shí)現(xiàn)個(gè)性化的創(chuàng)意設(shè)計(jì),滿足不同領(lǐng)域的設(shè)計(jì)需求。AIbase擁有多樣化的AI產(chǎn)品選擇,智能匹配最適合您的AI產(chǎn)品和網(wǎng)站。
探索StableDiffusion3Medium能為你帶來(lái)哪些改變?yōu)槭裁催x擇StableDiffusion3Medium?StableDiffusion3Medium不僅僅是一款產(chǎn)品——它是一項(xiàng)革命性的技術(shù),致力于提供出色的細(xì)節(jié)、色彩和光照效果,支持多種風(fēng)格。通過(guò)AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
GoogleDeepMind的Veo模型是一個(gè)可以根據(jù)單個(gè)參考圖像生成視頻剪輯的創(chuàng)新模型。用戶可以通過(guò)輸入文本提示來(lái)調(diào)整視頻的視覺(jué)風(fēng)格,使其與原始風(fēng)格保持一致。她的指甲被涂成紫色,小指上戴著金戒指,手腕上有一個(gè)小紋身。
經(jīng)過(guò)與GoogleCloud的合作,今日Aria宣布融入了Google的Gemini模型,為其AI瀏覽器帶來(lái)了一次重大升級(jí)。Aria作為自家ComposerAI引擎的驅(qū)動(dòng),以其與50多個(gè)模型系列共計(jì)150多個(gè)本地LLM變體的支持著稱。值得關(guān)注的本地LLM項(xiàng)目還包括CodeLlama,Phi-2和Mixtral等,它們將在AI社區(qū)中繼續(xù)發(fā)揮重要作用,推動(dòng)人工智能技術(shù)的不斷進(jìn)步和創(chuàng)新。
騰訊開源了混元DiT圖像生成模型,對(duì)英語(yǔ)和中文都有著精細(xì)的理解能力。Hunyuan-DiT能夠進(jìn)行多輪多模態(tài)對(duì)話,根據(jù)對(duì)話上下文生成并細(xì)化圖像。它通過(guò)結(jié)合Transformer結(jié)構(gòu)、文本編碼和位置編碼,以及訓(xùn)練一個(gè)多模態(tài)大型語(yǔ)言型,實(shí)現(xiàn)了對(duì)中英文的細(xì)粒度理解,并在圖像生成等任務(wù)中取得了顯著的效果。
谷歌DeepMind最近的研究示了當(dāng)前我們對(duì)文本到圖像AI模型性能評(píng)估的隱藏局限性。在其發(fā)布在預(yù)印本服務(wù)器ariv上的研究中,他們引入了一種全新的方法稱為“Gecko”,承諾提供一個(gè)更全和可靠的基準(zhǔn),以評(píng)估這一蓬勃發(fā)展的技術(shù)。Gecko為我們展示了如何做到這一。
根據(jù)研究團(tuán)隊(duì)發(fā)表的預(yù)印本文章,InstantMesh是由騰訊PCGARC實(shí)驗(yàn)室和上??萍即髮W(xué)的研究人員開發(fā)的人工智能框架,能夠在僅需10秒的時(shí)間內(nèi),從單個(gè)2D圖像生成高質(zhì)量的3D網(wǎng)格。該開源框架由多視圖擴(kuò)散模型和3D網(wǎng)格重建模型組成,通過(guò)使用不同角度合成的3D視圖來(lái)實(shí)現(xiàn)高質(zhì)量的重建。這一技術(shù)有望顯著提升3D行業(yè)生產(chǎn)力,尤其在視頻游戲開發(fā)領(lǐng)域。
AdobePhotoshop的最新測(cè)試版現(xiàn)已引入一項(xiàng)革命性的功能,允許用戶通過(guò)簡(jiǎn)單的文本提示,利用人工智能技術(shù)生成圖像。該功能的核心在于Adobe新發(fā)布的生成式AI模型系列FireflyImage3。包括谷歌和微軟在內(nèi)的多家科技巨頭都在AI領(lǐng)域取得了顯著的進(jìn)展和突破。
Adobe發(fā)布了Firefly圖像生成模型的最新版本,名為FireflyImage3,聲稱具有“攝影細(xì)節(jié)”的圖像生成能力。相比之前的版本,這一第三代模型在圖像生成能力上有了顯著的改進(jìn)。即使是新手用戶也可以在Photoshop中游刃有余,并更快地成為高級(jí)用戶,PhotoshopgentechAI產(chǎn)品管理總監(jiān)JohnMetzger表示。
當(dāng)用戶在與MetaAI的聊天中開始輸入文本到圖像的提示時(shí),將看到隨著添加更多關(guān)于想創(chuàng)建的內(nèi)容的細(xì)節(jié),圖像如何變化。在Meta分享的示例中,一個(gè)用戶輸入了提示:“想象一場(chǎng)在火星上進(jìn)行的足球比賽。這一新功能是Meta在其所有應(yīng)用程序中推出AI功能的一部分,包括WhatsApp、Instagram、Facebook和Messenger。
OpenAI宣布關(guān)閉DALL-E2圖像生成器服務(wù),由其后續(xù)產(chǎn)品DALL-E3替代。DALL-E2在2022年4月面世后不久,以其能夠根據(jù)簡(jiǎn)單文本提示生成高質(zhì)量圖像一舉成名。但為了安全起見(jiàn),大家可能需要下載自己特別喜歡的任何內(nèi)容。
北大和字節(jié)聯(lián)手搞了個(gè)大的:提出圖像生成新范式,從預(yù)測(cè)下一個(gè)token變成預(yù)測(cè)下一級(jí)分辨率,效果超越Sora核心組件DiffusionTransformer。并且代碼開源,短短幾天已經(jīng)攬下1.3k標(biāo)星,登上GitHub趨勢(shì)榜。他碩士畢業(yè)于浙江大學(xué),目前的研究重點(diǎn)是視覺(jué)基礎(chǔ)模型、深度生成模型和大語(yǔ)言模型。
北大與字節(jié)跳動(dòng)AILab聯(lián)合提出了一種圖像生成新范式——VAR,這一新方法的核心在于預(yù)測(cè)下一級(jí)分辨率非傳統(tǒng)的預(yù)測(cè)下一個(gè)token。VAR的提出不僅在圖像生成質(zhì)量上超越了Sora的核心組件DiffusionTransformer在推理速度上也實(shí)現(xiàn)了20倍以上的提升。VAR的開源也體現(xiàn)了學(xué)術(shù)界與工業(yè)界合作的積極成果,有助于推動(dòng)整個(gè)AI領(lǐng)域的發(fā)展和創(chuàng)新。
Adobe的圖像生成AI“Firefly”以其訓(xùn)練集來(lái)源自AdobeStock中的圖片和視頻聞名。美國(guó)經(jīng)濟(jì)報(bào)紙彭博社報(bào)道稱,F(xiàn)irefly的數(shù)據(jù)集實(shí)際上包含由Midjourney等公司生成的圖像。”然,Tushnett教授指出,F(xiàn)irefly學(xué)習(xí)自Midjourney生成的圖像的事實(shí)與其聲稱與其他圖像生成AI不同的說(shuō)法相矛盾。
ComfyUI-IPAdapter-Plus是一個(gè)強(qiáng)大的圖像生成和編輯工具,專門用于基于一個(gè)或多個(gè)參考圖像進(jìn)行圖像到圖像的條件生成。通過(guò)文本提示、控制網(wǎng)絡(luò)和掩碼,您可以輕松生成增強(qiáng)圖像的各種變體。獲取更多詳細(xì)信息并開始體驗(yàn)圖像生成的樂(lè)趣,請(qǐng)?jiān)L問(wèn)ComfyUI-IPAdapter-Plus官方網(wǎng)站。
在圖像生成領(lǐng)域,精確控制圖像的風(fēng)格和特征一直是一個(gè)具有挑戰(zhàn)性的問(wèn)題。DreamWalk技術(shù)的出現(xiàn)為這一難題提供了解決方案,使得用戶可以更加自由地決定圖像中哪部分應(yīng)該更加強(qiáng)烈地體現(xiàn)某種風(fēng)格哪部分則保持原樣或采用另一種風(fēng)格。這一功能為用戶提供了一種簡(jiǎn)單有效的方式,將他們的照片或收藏的圖像轉(zhuǎn)化為獨(dú)特的藝術(shù)風(fēng)格,從豐富了數(shù)字藝術(shù)的創(chuàng)作方式。
Facet AI是一款創(chuàng)新的圖像編輯工具,它以其獨(dú)特的功能和用戶友好的操作界面,為廣告制作和產(chǎn)品圖像設(shè)計(jì)領(lǐng)域帶來(lái)了革命性的變化。這款工具的核心優(yōu)勢(shì)在于其精確控制圖像元素的能力,使得用戶可以輕松地對(duì)圖像進(jìn)行實(shí)時(shí)編輯和調(diào)整。官網(wǎng)地址:https://facet.ai/Facet AI的直觀畫布操作是其一大亮點(diǎn)。用戶可以通過(guò)簡(jiǎn)單的拖拽和調(diào)整,實(shí)現(xiàn)對(duì)圖像
FACET 是一款協(xié)作式AI圖像生成和編輯器,專為專業(yè)圖像合成提供支持。它提供個(gè)性化、私密的AI生成,可根據(jù)您的審美進(jìn)行微調(diào)。只需幾張樣本圖片和文本標(biāo)簽,便可以訓(xùn)練一個(gè)能理解特定風(fēng)格的定制AI模型。點(diǎn)擊前往FACET官網(wǎng)體驗(yàn)入口誰(shuí)可以從FACET中受益?FACET適用于藝術(shù)家、設(shè)計(jì)師等創(chuàng)意人士,幫助他們生成個(gè)性化藝術(shù)品、進(jìn)行圖像編輯和修飾,以及訓(xùn)練定制的AI模型。FACET的?
北京大學(xué)最近發(fā)布了一種新的圖像生成框架,名為VAR。這一突破性的技術(shù)首次使GPT風(fēng)格的自回歸模型在圖像生成上超越了擴(kuò)散transformer,同時(shí)展現(xiàn)出了與大語(yǔ)言模型觀察到的類似Scalinglaws的規(guī)律。VAR算法為計(jì)算機(jī)視覺(jué)中的自回歸算法設(shè)計(jì)提供了新的見(jiàn)解,有望推動(dòng)這一領(lǐng)域的進(jìn)一步發(fā)展。
ImagenHub是一個(gè)一站式庫(kù),用于標(biāo)準(zhǔn)化所有條件圖像生成模型的推理和評(píng)估。該項(xiàng)目首先定義了七個(gè)突出的任務(wù)并創(chuàng)建了高質(zhì)量的評(píng)估數(shù)據(jù)集。ImagenHub設(shè)計(jì)了兩個(gè)人工評(píng)估指標(biāo),語(yǔ)義一致性和感知質(zhì)量,并訓(xùn)練專家評(píng)審員根據(jù)這些指標(biāo)對(duì)模型輸出進(jìn)行評(píng)估,獲得了高的評(píng)估者間一致性。
在人工智能構(gòu)筑的世界中,AI有時(shí)會(huì)像人一樣存在著某種偏見(jiàn)或傾向性。比如對(duì)于大語(yǔ)言模型言,由于訓(xùn)練數(shù)據(jù)的影響會(huì)不可避免地存在性別偏見(jiàn)、種族刻板印象,等等。對(duì)于TheVerge發(fā)現(xiàn)的這一現(xiàn)象,有網(wǎng)友分析稱,這是Meta在訓(xùn)練的時(shí)候沒(méi)有喂給模型關(guān)于這一場(chǎng)景足夠的示例。
Meta公司最近推出了一款名為OPT2I的新框架,該框架利用大型語(yǔ)言模型來(lái)提高SD圖像從提示詞到圖像的生成過(guò)程中的一致性。OPT2I是一個(gè)優(yōu)化框架,旨在提升T2I模型中的提示-圖像一致性。OPT2I框架為提高T2I模型的提示-圖像一致性提供了一種新的有效方法。
一個(gè)名為BeYourself的項(xiàng)目引起了廣泛關(guān)注。這個(gè)項(xiàng)目旨在解決SD圖像生成過(guò)程中的一個(gè)問(wèn)題:提示詞概念相互污染。這一突破性的進(jìn)展將有助于提高生成圖像的質(zhì)量,為用戶帶來(lái)更好的視覺(jué)體驗(yàn)。