11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
OpenAI日前關(guān)閉了一個(gè)本應(yīng)用于區(qū)分人類寫作和AI寫作的工具,原因是準(zhǔn)確率較低。在一篇博客中,OpenAI表示決定自2023年7月20日起停用其AI檢測器。OpenAI拒絕對其博客文章以外的事情進(jìn)行評(píng)論。
在快節(jié)奏的新媒體時(shí)代,內(nèi)容傳播速度快,范圍廣,產(chǎn)生的影響也是巨大的。為了保障文本內(nèi)容的安全和規(guī)范,政務(wù)機(jī)構(gòu)、企業(yè)越來越多地在日常工作中使用文本檢測和糾錯(cuò)工具,但中文字、詞、句的含義與使用具有復(fù)雜性,文本內(nèi)容的檢測普遍存在“不全”“不準(zhǔn)”“不快”的問題。鈾媒圍繞中文語言特點(diǎn)和使用習(xí)慣,以 10 億級(jí)訓(xùn)練語料為基礎(chǔ),運(yùn)用先進(jìn)語法模型和語義分析等先進(jìn)技術(shù),實(shí)現(xiàn)了自動(dòng)化、智能化的文本檢測,適用于日常公文、網(wǎng)站
密集恐懼癥患者慎入,這樣的彈幕密度,刷新了小編對于“雞蛋里挑骨頭”的認(rèn)知。即便是身經(jīng)百戰(zhàn)、久戰(zhàn)沙場的管理員,面對這樣彈幕,過濾廣告彈幕和黃色彈幕的難度自不必說。 達(dá)觀文本鑒黃閃亮登場,無能力不出場。進(jìn)入達(dá)觀數(shù)據(jù)官網(wǎng)即可進(jìn)行文本測試。在文本自動(dòng)審核框中輸入自己想要檢測的文本即可,涉黃與否一目了然,更重要的是達(dá)觀數(shù)據(jù)在給出涉黃的權(quán)重指數(shù),不會(huì)死板地以是與否來作為結(jié)果。 色情彈幕魔高一尺,達(dá)觀數(shù)據(jù)智能鑒?
CapCut是字節(jié)跳動(dòng)旗下的視頻編輯應(yīng)用程序,是該公司繼TikTok之后第二個(gè)消費(fèi)者支出突破1億美元的應(yīng)用程序,目前正在擴(kuò)展到商業(yè)工具領(lǐng)域。CapCut因其易于使用的模板、與TikTok的緊密集成以及AI效果和濾鏡的快速采用聞名,它已成為頂級(jí)消費(fèi)者視頻編輯應(yīng)用程序,目前經(jīng)常躋身iOS應(yīng)用程序整體應(yīng)用程序前10名或前20名。品牌、營銷人員和創(chuàng)作者可以免費(fèi)使用新的CapCutforBusiness軟件?
上海科技大學(xué)、賓夕法尼亞大學(xué)、Deemos科技和NeuDim科技的研究人員聯(lián)合推出了一個(gè)創(chuàng)新模型DressCode。用戶通過DressCode只需要輸入文本就能生成各種精美的3D服裝模型,例如,一件法式蕾絲邊的連衣裙;紅色絲綢的睡衣等。所有預(yù)覽都是可視化操作,用戶可以通過簡單的操作旋轉(zhuǎn)、縮放、平移3D模型,從多個(gè)角度審視服裝細(xì)節(jié),這對于那些非專業(yè)設(shè)計(jì)人員來說非常有幫助。
西湖大學(xué)工學(xué)院張?jiān)澜淌陬I(lǐng)導(dǎo)的文本智能實(shí)驗(yàn)室開發(fā)了一種名為Fast-DetectGPT的新文本檢測方法。該方法能高效識(shí)別AI生成的文本,并且Fast-DetectGPT無需訓(xùn)練,即可準(zhǔn)確檢測包括ChatGPT、GPT-4在內(nèi)的多種AI語言模型生成的文本。盡管Fast-DetectGPT能提供文本為機(jī)器生成的概率,但鮑光勝博士指出,它無法100%準(zhǔn)確識(shí)別,尤其是當(dāng)文本混合了機(jī)器和人工撰寫的部分時(shí)。
iOS18中的一項(xiàng)AppleIntelligence功能是Genmoji,它允許iPhone用戶通過AI根據(jù)文本輸入生成全新的表情符號(hào)角色。根據(jù)iOS18在WWDC會(huì)議上的介紹,Genmoji看起來類似于傳統(tǒng)的表情符號(hào),但它們是根據(jù)用戶的輸入自定義生成的。Genmoji和AppleIntelligence將在今年秋季向公眾開放,但僅限于iPhone15Pro機(jī)型以及配備M系列芯片的iPad和Mac。
浙江大學(xué)、螞蟻集團(tuán)、深圳大學(xué)聯(lián)合推出了創(chuàng)新模型MaPa。與傳統(tǒng)紋理方法不同的是,MaPa通過文本能直接生成高分辨率、物理光照、超真實(shí)材質(zhì)的3D模型,可以極大提升游戲、VR、AR、影視等行業(yè)的開發(fā)效率。MaPa使用了連續(xù)迭代的方法,可以為模型的每個(gè)部分生成一致且真實(shí)的材質(zhì),即便是那些非常復(fù)雜的3D模型架構(gòu)也沒問題。
StabilityAI今天發(fā)布了StableAudioOpen1.0,這是其音頻領(lǐng)域的新一款生成AI模型。StabilityAI以穩(wěn)定擴(kuò)散文本到圖像生成AI技術(shù)聞名,但這只是該公司產(chǎn)品組合的一部分。我們期待進(jìn)一步發(fā)布商業(yè)和開放模型,以反映我們研究的進(jìn)展。
StableAudioOpen是什么?StableAudioOpen是一個(gè)開源的文本到音頻模型,專為生成短音頻樣本、音效和制作元素優(yōu)化。AIGC網(wǎng)站,AI工具盡在AIbase!
6月6日,著名開源大模型平臺(tái)Stability.ai在官網(wǎng)宣布,開源最新文生音頻模型StableAudioOpen。用戶通過文本就能生成最多47秒,鋼琴、笛子、鼓點(diǎn)、模擬人聲等不同類型的44.1kHz音效。StableAudioOpen目前只能用于學(xué)術(shù)研究無法商業(yè)化。
探索ChatTTS能為你帶來哪些改變?yōu)槭裁催x擇ChatTTS?ChatTTS不僅僅是一個(gè)模型——它是一個(gè)開源的文本到語音轉(zhuǎn)換技術(shù),致力于為語音技術(shù)研究和教育提供支持。通過AIbase,您可以輕松發(fā)現(xiàn)最適合您需求的人工智能工具,解鎖AI的力量。
劃重點(diǎn):??全新功能:Elevenlabs發(fā)布文本生成音樂特效功能,幫助用戶輕松制作逼真音效。??免費(fèi)試用:用戶可免費(fèi)試用該功能,享受強(qiáng)大的音效生成體驗(yàn)。值得期待的是,隨著技術(shù)的不斷進(jìn)步,這類AI音樂平臺(tái)將會(huì)在未來發(fā)展出更多創(chuàng)新的功能,為用戶帶來更多驚喜和樂趣。
設(shè)計(jì)平臺(tái)Canva推出了一系列更新,旨在使其設(shè)計(jì)生態(tài)系統(tǒng)對專業(yè)團(tuán)隊(duì)和工作空間更具吸引力。該公司重新設(shè)計(jì)了平臺(tái),使新的和現(xiàn)有的編輯工具更易于找到,并宣布推出企業(yè)版,為大型組織提供更多的協(xié)作、品牌管理和安全性控制。Layouts:快速獲得多種符合品牌形象的布局建議,可以選擇合適的使用。
Dolphin2.9.1Mixtral1x22b是由CognitiveComputations團(tuán)隊(duì)創(chuàng)建的一個(gè)多功能文本生成模型。這個(gè)模型具備以下特點(diǎn):多功能文本生成:它能夠處理指令、對話和編碼任務(wù),具有廣泛的應(yīng)用能力。模型的設(shè)計(jì)理念是提供一個(gè)沒有審查和道德限制的文本生成工具,但這種開放性也帶來了一定的風(fēng)險(xiǎn),特別是當(dāng)用戶提出不道德的請求時(shí),模型可能會(huì)遵循這些請求。
隨著ChatGPT的火熱,國產(chǎn)大模型開始呈現(xiàn)爆發(fā)式增長態(tài)勢,科技巨頭、垂直場景玩家紛紛入局。在AI技術(shù)躍進(jìn)式發(fā)展的趨勢下,“從文本生成到AI聊天機(jī)器人”“從網(wǎng)站、軟件App到智能終端”“從AI視頻,到AI游戲”……AIGC無處不在,并開始席卷一切。七麥數(shù)據(jù)后期也將持續(xù)關(guān)注AI類產(chǎn)品的動(dòng)向趨勢,希望能給大家一些助力。
4月27日,在2024中關(guān)村論壇-未來人工智能先鋒論壇上,清華大學(xué)聯(lián)合生數(shù)科技正式發(fā)布了,中國首個(gè)長時(shí)間、高一致性、高動(dòng)態(tài)性視頻大模型——Vidu。Vidu采用了原創(chuàng)的Diffusion與Transformer融合的架構(gòu)U-ViT,支持文本生成長達(dá)16秒、分辨率高達(dá)1080P的高清視頻內(nèi)容。生數(shù)科技致力打造世界領(lǐng)先的多模態(tài)大模型,融合文本、圖像、視頻、3D等多模態(tài)信息,探索生成式AI在藝術(shù)設(shè)計(jì)、游戲?
知名生成式AI平臺(tái)BlockadeLabs在官網(wǎng)重磅發(fā)布了全新模型——Model3。與Model2相比,Model3的生成效果實(shí)現(xiàn)質(zhì)的提升,原生支持超高清8192x4096分辨率,增強(qiáng)了文本提示器能更好的描述生成世界,并且大幅度減少了生成世界的灰度值,使建筑、風(fēng)景、人物等看起來更加高清、細(xì)膩。經(jīng)過一年多的技術(shù)創(chuàng)新與業(yè)務(wù)積累,Blockade的用戶超過150萬,生成的作品超過1000萬,成為很多游戲開發(fā)工作室、3D建模等常用工具,尤其是與Unity開發(fā)引擎集成后,迎來了一波用戶增長高峰。
Meta與德國慕尼黑工業(yè)大學(xué)研發(fā)出創(chuàng)新模型ViewDiff,旨在幫助用戶通過文本、圖像或二者結(jié)合使用,快速生成高質(zhì)量多視角3D圖像。該模型解決了傳統(tǒng)文本生成多視角3D圖像領(lǐng)域的三大難點(diǎn):無法生成真實(shí)背景環(huán)境、圖像質(zhì)量和多樣性不理想、缺乏多視角和一致性。該模型的推出不僅在技術(shù)層面上具有重大意義,也將為未來的3D圖像生成領(lǐng)域帶來更多創(chuàng)新可能。
Mixtral-8x22B是一個(gè)預(yù)訓(xùn)練的生成式稀疏專家語言模型,由MistralAI團(tuán)隊(duì)開發(fā)。該模型擁有141B個(gè)參數(shù),支持多種優(yōu)化部署方式,旨在推進(jìn)人工智能的開放發(fā)展。
InstantStyle是一個(gè)通用框架,旨在在文本到圖像生成過程中實(shí)現(xiàn)風(fēng)格與內(nèi)容的有效分離。該框架采用了兩種簡單但強(qiáng)大的技術(shù),以實(shí)現(xiàn)對風(fēng)格和內(nèi)容的有效解耦。InstantStyle還將繼續(xù)改進(jìn)和擴(kuò)展,為用戶提供更多功能和選擇,助力他們在圖像生成領(lǐng)域取得更大的成功。
隨著人工智能技術(shù)的發(fā)展,視頻生成領(lǐng)域取得了長足的進(jìn)步。在現(xiàn)有的文本到視頻生成模型中,對鏡頭姿勢的精確控制往往被忽視鏡頭姿勢在視頻生成中扮演著表達(dá)更深層敘事細(xì)微差別的影視語言角色。這一技術(shù)的應(yīng)用前景廣闊,有望在視頻生成領(lǐng)域發(fā)揮重要作用。
4月4日,著名開源大模型平臺(tái)Stability.ai在官網(wǎng)正式發(fā)布了,音頻模型StableAudio2.0。StableAudio2.0支持用戶通過文本或音頻,一次性可生成3分鐘44.1kHz的搖滾、爵士、電子、嘻哈、重金屬、民謠、流行、鄉(xiāng)村等20多種類型的高質(zhì)量音樂。StableAudio2.0免費(fèi)贈(zèng)送20積分,生成的音樂可以商業(yè)化,這對于抖音、快手、B站的視頻自媒體用戶來說挺有幫助的。
AnimagineXL3.1是一款能夠基于文本提示生成高質(zhì)量動(dòng)漫風(fēng)格圖像的文本到圖像生成模型。它建立在穩(wěn)定擴(kuò)散XL的基礎(chǔ)之上,專門針對動(dòng)漫風(fēng)格進(jìn)行了優(yōu)化。AnimagineXL3.1的產(chǎn)品特色:從文本提示生成動(dòng)漫風(fēng)格圖像提升手部解剖和圖像細(xì)節(jié)質(zhì)量優(yōu)化提示解析和概念理解能力支持多種圖像長寬比例美學(xué)標(biāo)簽和提示模板優(yōu)化輸出結(jié)果如果您對動(dòng)漫文本到圖像生成工具感興趣,不妨前往AnimagineXL3.1官網(wǎng)了解更多信息。
2月29日,著名AI平臺(tái)Lightricks在官網(wǎng)宣布,推出生成式AI電影制作平臺(tái)—LTXStudio。用戶只需要輸入文本就能生成超25秒的微電影視頻,同時(shí)可對鏡頭切換、角色、場景一致性、攝像機(jī)、燈光等進(jìn)行可視化精準(zhǔn)控制。1927年的巡回嘉年華會(huì)上俯拍走鋼絲的表演者,他在鋼絲上保持平衡,下面的人群緊張地注視著他,柔和的漫射光,聚光燈打在表演者身上,戲劇性的陰影,溫暖的棕褐色
GoogleGemmaChatFree是由Google開發(fā)的前沿輕量級(jí)開放模型。這些模型分為2B和7B參數(shù)版本,包括基礎(chǔ)和調(diào)優(yōu)版本。要了解更多關(guān)于GoogleGemmaChatFree的信息并開始您的文本生成和摘要之旅,請?jiān)L問GoogleGemmaChatFree官網(wǎng)。
StableDiffusion3是stability公司推出的新一代文本到圖像生成AI模型,相比早期版本在多主體提示、圖像質(zhì)量和拼寫能力等方面都有了極大提升。該模型采用了diffusiontransformer架構(gòu)和flowmatching技術(shù),參數(shù)量范圍從800M到8B不等,提供了從個(gè)人用戶到企業(yè)客戶多種部署方案。相比早期版本,該AI助手具有更強(qiáng)大的理解和創(chuàng)作能力,是新一代安全、開放、普惠的生成式AI典范。
最近發(fā)布的Sora是一款由OpenAI推出的文本生成視頻模型。用戶可以輸入文本描述,生成高清視頻,支持長達(dá)60秒的視頻生成,提供多角度鏡頭切換,模擬物理效果如咬痕或踩奶效果,甚至可以從圖片生成視頻,包括動(dòng)畫、音樂視頻、宣傳片、教育視頻、游戲、短片等。Sam之前提到,加入紅隊(duì)可以獲得測試《Sora》的機(jī)會(huì)。
OpenAISora是一個(gè)由OPENAI推出的AI模型,被稱為文本到視頻模型,能夠根據(jù)文本命令生成生動(dòng)富有想象力的場景。它能夠根據(jù)用戶提供的文本提示創(chuàng)建復(fù)雜的場景,其中包含多個(gè)角色、動(dòng)態(tài)環(huán)境和精確細(xì)節(jié)。如欲了解更多詳情,請?jiān)L問OpenAISora官方網(wǎng)站。