11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
埃隆·馬斯克的GrokAI聊天機器人正在互聯(lián)網(wǎng)上泛濫,生成了從唐納德·特朗普到馬斯克本人的「深度偽造」圖像——生成的圖片有的完全荒誕到極其令人不安等。自上周發(fā)布以來,Grok的用戶不斷生成假冒的特朗普圖像,如搶劫便利店或駕駛飛機飛向雙子塔的畫面。歐盟專員蒂埃里·布雷頓本月早些時候在馬斯克接受特朗普在XSpaces采訪前威脅對其進行監(jiān)管打擊后,引發(fā)了軒然大波。
AI生成的埃隆?馬斯克的形象,已經(jīng)出現(xiàn)在數(shù)千條虛假廣告中,導致許多人被騙。AI驅(qū)動的“深度偽造”視頻預計每年將造成數(shù)十億美元的欺詐損失。AI行業(yè)正在快速發(fā)展,這些伴隨產(chǎn)生的欺詐事件,需要AI行業(yè)和監(jiān)管部門共同努力應對,以防止濫用。
世界最大的廣告集團WPP的首席執(zhí)行官成為一起精心策劃的深度偽造詐騙行動的目標。WPP的CEOMarkRead在最的一封郵件中詳細描述了這次未遂詐騙行動,并警告公司其他高管要提防自稱是高管電話。深度偽造音頻已經(jīng)瞄準了世界各地的政治選人,但也逐漸滲入其他不那么知名的目標。
英國一組議員建議通過法律禁止人工智能對音樂明星進行深度偽造,以保護他們的聲和形象不受侵害。200多名音樂人簽署了一封公開信,呼吁加強AI濫用的保護,認為AI對藝術家的聲音和形象構(gòu)成潛在威脅。保護創(chuàng)意和知識產(chǎn)權(quán)至關重要,以及確保我們的人類本質(zhì)不受侵犯。
兒童虐待者正在利用人工智能技術制作"深度偽造品"來勒索受害者拍攝自己的虐待行為,從開始一個可持續(xù)數(shù)年的性勒索循環(huán)。制作模擬虐待兒童圖像是非法的,工黨和保守黨一致呼吁禁止所有由人工智能生成的露骨圖像。政策文件建議,短期內(nèi)應針對單一用途"裸體"工具的創(chuàng)建者和宿主采取行動,但長期應對抗明確的人工智能圖像問題仍需進一步探討。
微軟演示了VASA–1,這是一個基于靜態(tài)圖像、音頻樣本和文本腳本來創(chuàng)建人物講話視頻的框架,微軟聲稱——這是正確的——這個框架太危險了,不適合向公眾發(fā)布。這些由AI生成的視頻,可以讓人物以克隆的聲音令人信服地配合腳本說話,正是美國聯(lián)邦貿(mào)易委員會上個月警告的那種情形,之前已提出規(guī)則以防止利用AI技術進行冒充詐騙。隨著這些技術變得越來越復雜,它們有?
數(shù)百名人工智能領域的專家簽署了一封公開信,敦促政府對人工智能生成的深度偽造進行嚴格監(jiān)管。這封公開信由500多名人工智能領域的人士簽署,強調(diào)深度偽造對社會構(gòu)成了日益增長的威脅,政府應該在整個供應鏈上實施義務,阻止深度偽造的傳播。如果立法者決定著手處理這個問題——盡管在選舉年份,國會分歧嚴重,這是一個不太可能的事件——他們將有這份名單來了解全球人工智能學術和開發(fā)社區(qū)的立場。
最近關于「美國總統(tǒng)大選現(xiàn)人工智能造假」的報道揭示了人工智能技術在社會和政治領域的潛在影響。美國媒體近期曝光了一家人工智能初創(chuàng)公司通過其技術進行的“深度偽造”,模擬美國總統(tǒng)拜登電話呼叫。通過AIbase的人工智能產(chǎn)品庫,您可以更全面地了解和選擇適合您需求的人工智能工具,確保其合理使用。
谷歌研究團隊發(fā)布了一款名為Lumiere的先進人工智能視頻生成器,引起了對深度偽造技術可能增加的擔憂。Lumiere能夠根據(jù)簡單的文本提示創(chuàng)建逼真的五秒視頻,其先進之處在于采用了"時空U-Net架構(gòu)",通過一次傳遞即生成整個視頻的時間持續(xù)序列。谷歌尚未回應有關Lumiere的進一步問題。
在上周的開發(fā)者大會上,微軟宣布了其在人工智能競賽中的最新貢獻:一款可以生成新頭像和聲音,或復制用戶現(xiàn)有外觀和語音的軟件,這引發(fā)了人們對它可能加劇深度偽造創(chuàng)造的擔憂。深度偽造是指使用AI制作的未曾發(fā)生事件的視頻。Meta本周宣布了一項政策,要求披露在政治廣告中使用AI的情況,并禁止競選活動使用Meta自己的生成AI工具進行廣告。
近日一段“莫迪跳傳統(tǒng)舞蹈”的視頻在網(wǎng)上瘋傳,視頻中,“莫迪”和其他舞者圍成一個小圈歡快地旋轉(zhuǎn)著。莫迪上周末在印度人民黨總部出席排燈節(jié)特別活動時親自辟謠,稱網(wǎng)上流傳的跳舞視頻是AI合成的,并就此發(fā)出警告。政府、社交媒體平臺和技術公司需要共同努力,加強打擊深度偽造的措施,保護社會免受虛假信息的影響。
生成式人工智能技術的崛起帶動了深度偽造內(nèi)容的激增,特別是以數(shù)字方式改變或生成的色情內(nèi)容。根據(jù)2023年的深度偽造狀況報告,這一現(xiàn)象在網(wǎng)絡上變得越來越普遍,深度偽造色情內(nèi)容數(shù)量在短短一年內(nèi)增加了驚人的550%。鑒于這一現(xiàn)象,研究者呼吁對這類內(nèi)容的態(tài)度進行深入討論,特別關注創(chuàng)作該內(nèi)容的倫理考慮。
隨著對人工智能可能助長虛假信息傳播的擔憂不斷增加,微軟正積極應對,為政治運動提供數(shù)字水印工具以防范深度偽造,并在全球多場選舉前加強網(wǎng)絡安全。微軟總裁BradSmith和技術基本權(quán)利部門副總裁TeresaHutson在一篇博客文章中宣布,微軟將推出一系列服務以保護選舉的公正性,其中包括利用由CoalitionforContentProvenanceAuthenticity開發(fā)的ContentCredentials數(shù)字水印系統(tǒng)的新工具。Meta現(xiàn)在要求政治廣告商在使用其生成式人工智能廣告工具之前披露其生成的內(nèi)容。
一位兒童精神病學家在北卡羅來納州因制作、擁有和運輸兒童性虐待材料被判入獄。該精神病學家名叫戴維?塔圖姆,41歲。這部分是因為他們提供了這項服務。
GitHub最近發(fā)布了一款名為FACTOR的新工具,該工具采用事實核查技術來檢測數(shù)字媒體,為檢測前所未有的深度偽造攻擊提供了一種新穎有效的工具。與傳統(tǒng)的方法不同,F(xiàn)ACTOR無需事先進行訓練,能夠自動檢測深度偽造技術。引用支持:作為研究成果,如果用戶發(fā)現(xiàn)FACTOR對其工作有幫助,項目提供了相應的引用格式,方便用戶在其論文或研究中引用本項目。
CBS的新聞和電視臺部門宣布將成立一個名為“CBS新聞確認”的新單位,旨在調(diào)查虛假信息和所謂的“深度偽造”,即通常通過人工智能生成的虛假視頻。該單位將由CBS新聞和電視臺的高級副總裁克勞迪婭·米爾恩和新聞運營與轉(zhuǎn)型執(zhí)行副總裁羅斯·達根領導。CBS的新聞確認單位將在這一領域發(fā)揮關鍵作用,幫助觀眾更好地理解和辨別虛假信息。
德國相機制造商Leica最近發(fā)布了一款新的M11-P相機,配備了驗證技術,以確保相機拍攝的照片沒有經(jīng)過人工智能生成。在這個充斥著AI偽造的時代,Leica希望確保人們知道其照片是真實的。要使其標準具有意義并為質(zhì)疑圖像真實性的公眾所理解,需要繼續(xù)廣泛采用。
深度偽造技術和合成媒體的出現(xiàn)引發(fā)了對信息真實性和可信度的擔憂。為了應對這一挑戰(zhàn),初創(chuàng)公司RealityDefender最近宣布成功融資1500萬美元,由風險投資公司DCVC領投。對于合成文本的檢測,OpenAI曾發(fā)布了一款備受矚目的工具,但在發(fā)布后六個月后悄然下架。
AI技術的發(fā)展使得生成深度偽造圖像變得輕易舉。阿諾德·施瓦辛格的臉被疊加到克林特·伊斯特伍德的《丑?!冯娪爸??!币虼?,目前人們在審查包含可能對他們重要的內(nèi)容的圖像時,必須要保持警惕,雙重檢查來源,并運用常識。
今年7月,白宮宣布,七家大型科技公司已承諾采取人工智能安全措施,包括部署水印,以確保算法生成的內(nèi)容可以與真人作品區(qū)分開來。在這些巨頭中,亞馬遜、谷歌和OpenAI都特別提到了水印技術——即在文本和圖像中添加信息以證明內(nèi)容出處的技術——作為抵御其生成式人工智能模型所產(chǎn)生的錯誤信息、欺詐和深度偽造的一種方法。這可能會損害藝術家的聲譽。
WunjoAI是一個由俄羅斯開發(fā)者創(chuàng)建的應用程序,可進行文本和語音識別,并進行文本到語音的合成,同時還能夠創(chuàng)建深度偽造動畫。該應用程序與其他類似的Web應用程序不同,它具有一項獨特的功能,可以創(chuàng)建具有多種聲音的多對話,并且字符數(shù)不受限制。最重要的是,這個應用程序免費,并且易于使用!您可以在廣告、書籍、游戲等方面使用它進行配音。
據(jù)《金融時報》周二援引四名知情人士的報道,Alphabet旗下的谷歌和環(huán)球音樂正在就為人工智能生成的歌曲授權(quán)藝術家的聲音和旋律進行談判。音樂行業(yè)正面臨著使用生成式AI制作的“深度偽造”歌曲,這些歌曲模仿了藝術家的聲音,往往沒有得到他們的同意。報道補充說,華納音樂也在與谷歌就一個產(chǎn)品進行談判。
深度合成技術得到迅猛發(fā)展,“真實”和“虛假”的界限愈發(fā)難以分辨,技術濫用和惡意應用已經(jīng)引發(fā)了一系列風險,AI詐騙的消息層出不窮。中國信通院持續(xù)關注深度合成技術及其應用發(fā)展,于2023年上半年,正式啟動首批“深度偽造視頻檢測服務能力評估”工作。公司累計科研投入超30億元,科研人才超2000人,占比超70%,累計申請發(fā)明專利超1300項,其中,已公開發(fā)明專利997件,占消費金融行業(yè)總數(shù)的52.75%,自主研發(fā)超1000套涵蓋消費金融全業(yè)務流程、全生命周期的核心技術系統(tǒng),并參與國家及行業(yè)標準制定55項,參與34項成果,持續(xù)引領行業(yè)科技發(fā)展。
概要:1.研究發(fā)現(xiàn),人類只能在73%的時間內(nèi)檢測到深度偽造語音,無論是英語還是普通話的聽眾識別準確率都是一樣的。2.研究人員預測,隨著深度偽造技術的進步,深度偽造語音將變得更加逼真,更難以檢測。盡管自動檢測器存在一定的局限性,但改進這些系統(tǒng)對于減輕深度偽造內(nèi)容的潛在威脅至關重要。
谷歌首席執(zhí)行官桑達爾·皮查伊對使用人工智能制作公眾人物的假視頻發(fā)出警告,他表示這將很快變得「容易」。皮查伊在接受CBS的《60分鐘》采訪時發(fā)表了這番評論,他告訴采訪者斯科特·佩利,谷歌正在限制其BardAI的公開功能,以防止濫用。讓我這樣說,我們也并不完全了解人類思維的工作方式。
關于人工智能,澳大利亞工業(yè)和科學部長EdHusic在接受ABC電視臺采訪時表示:「社會上顯然存在對技術是否超前的擔憂?!拱拇罄麃営媱潓θ斯ぶ悄苓M行監(jiān)管,包括潛在禁止深度偽造和逼真但虛假的內(nèi)容,以應對技術可能被濫用的擔憂。越來越多的知名科技領袖在以下聲明中加入了他們的簽名:「減輕人工智能帶來的滅絕風險應該是一個全球優(yōu)先事項,與其他社會規(guī)模的風險如?
+微軟近期一直忙于推出基于+AI+的軟件和服務。今年+3+月,它正式發(fā)布了+Bing+Image+Creator,該工具允許用戶只需幾個文本提示就能創(chuàng)作藝術作品。該程序已經(jīng)生成了超過+2+億張圖像。
越來越多的視頻是 AI 工具偽造的,效果十分逼真,比如視頻AI換臉,又或者使用別人的臉或聲音來創(chuàng)造一個新的事件圖像等等。你已經(jīng)看過一個但不知道它是一個深度造假的視頻。皮尤研究中心的數(shù)據(jù)顯示,當一個深度謊言獲得數(shù)百萬分享時,已經(jīng)太晚了,因為63%的美國成年人承認,一個經(jīng)過修改的視頻讓他們對時事感到困惑。
面對深度偽造技術帶來的風險,日前在“北大光華-度小滿金融科技前沿技術研討會”上,度小滿技術委員會執(zhí)行主席楊青認為應該建立“全鏈條”屏障來進行防范...諸如DeepFake這樣的深度偽造技術,不僅對個人產(chǎn)生了影響和傷害,更是對各行各業(yè)帶來了潛移默化的安全隱患,尤其是隱私度較高的金融領域...7月20日,在“北大光華-度小滿金融科技前沿技術研討會”上,度小滿技術委員會執(zhí)行主席楊青介紹了前沿AI技術在金融領域的具體應用...在此基礎上,度小滿還將持續(xù)加大技術和風控投入,提高數(shù)據(jù)安全保障水平,全面筑牢數(shù)據(jù)安全屏障......
在擔心 AI 會搶走許多人工作的美國聯(lián)邦調(diào)查局(FBI)卻警告基于“深度偽造”(Deepfake)和被盜個人信息的工作申請案件有所增加...FBI 在周三的一份公共服務警告通報中指出,深度偽造再次被用于邪惡的目的 —— 這次是假冒被盜者的身份去應聘工作...而得到照片的欺詐者,可利用深度偽造技術來模仿當事人的語音或面容,甚至實時視訊也免不了被騙...Bleeping Computer 指出,即使黑客本人不在美國,他們也很可能希望獲得以美元計價的報酬......