11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
Deepfake,再度深陷輿論的風(fēng)波。用這項AI技術(shù)犯罪的嚴重程度被網(wǎng)友直呼是“韓國N號房2.0”,魔爪甚至伸向了眾多未成年人!事件影響之大,直接沖上了各大熱搜、熱榜。OneMoreThing當(dāng)我們讓ChatGPT翻譯相關(guān)事件的內(nèi)容時,它的反應(yīng)是這樣:嗯,AI看了都覺得不妥。
全球知名權(quán)威科技刊物《麻省理工科技評論》最新發(fā)布報告顯示,數(shù)字經(jīng)濟時代,以“Deepfake”為代表的深度換臉技術(shù)更加智能化和高度真實化。深度偽造技術(shù)被非法用于經(jīng)濟、政治、社會等領(lǐng)域,形成嚴重危害,深度偽造檢測面臨更大挑戰(zhàn)。馬上消費金融技術(shù)專家認為,防偽大模型構(gòu)建頂級的多模態(tài)生物核驗與防偽平臺,具有巨大潛力和實用價值,不僅提升了安全性和效率為
馬斯克“最新直播”,不好好扣他那polo衫扣子,拿個手機打光晃來晃去??此X袋左轉(zhuǎn)右轉(zhuǎn),嘴角揚起的微笑,ak都壓不下去。怎么辦?!已經(jīng)有人坐不住了,在討論區(qū)表示,正在針對渲染時的編解碼器,開發(fā)一個深度偽造檢測插件。
外灘大會·全球Deepfake攻防挑戰(zhàn)賽正式啟動報名。該賽事提供百萬級的數(shù)據(jù)集,針對“AI換臉”的欺詐風(fēng)險進行攻防實戰(zhàn)演練,并設(shè)立100萬元人民幣的獎金池,鼓勵推動AI向善的技術(shù)人才。面對全球范圍的技術(shù)挑戰(zhàn),培養(yǎng)具有實戰(zhàn)能力的AI人才刻不容緩。
AI語音技術(shù)領(lǐng)域的公司正努力尋求何規(guī)范Deepfakes,同時又不抑制創(chuàng)新。ElevenLabs的聯(lián)合創(chuàng)始人兼CEOMatiStaniszewski告訴《大西洋月刊》說:“這將是一場貓鼠游戲”。ElevenLabs已與包括AI、Anthropic、Google和Meta在內(nèi)的幾家人工智能公司簽署了一項協(xié)議,共同打擊2024年選舉中的Deepfakes。
生成式AI人臉造假套路多,怎么辦?現(xiàn)在,專門用于DeepFake的綜合性產(chǎn)品上新了——ZOLOZDeeper,螞蟻數(shù)科ZOLOZ出品。我們?nèi)粘5闹Ц秾毸⒛樦Ц?,正是依托于他們技術(shù)支撐。還懸賞百萬給新產(chǎn)品找bug最后,ZOLOZ還聯(lián)合螞蟻安全響應(yīng)中設(shè)立了超百萬的獎金池,誠邀白帽黑客們來給產(chǎn)品找bug,可以通過“螞蟻集團安全響應(yīng)中心”官網(wǎng)提報漏洞。
就離譜!只因開了一個視頻會議,直接被騙1.8個億。這是真真切切已經(jīng)在香港發(fā)生的一場犯罪:一家跨國公司香港分公司的財務(wù)人員,按照“CFO”的指令,給對方指定賬戶共計轉(zhuǎn)賬2億港幣。Deepfake假CFO騙走公司1.8個億這種事兒,多少還是有點過于離譜。
【新智元導(dǎo)讀】香港一家跨國公司員工,被騙子邀請進了用Deepfake做的「高管視頻會議」中,下令讓他轉(zhuǎn)了2億港幣到不知名中賬戶,5天之后才發(fā)現(xiàn)被騙了。古老的AI應(yīng)用——「AI換臉」多次破圈,屢屢登上熱搜。在技術(shù)和政策層面上都做出努力,才有可能將Deepfake技術(shù)的負面影響控制在合理范圍內(nèi)。
Meta的研究人員在對抗合成語音的挑戰(zhàn)中取得了一項重大突破。他們提出了一種名為AudioSeal的技術(shù),該技術(shù)能夠在人工智能生成的語音中嵌入隱形水印,用于主動檢測AI生成的言論,同時還能夠識別生成它的具體模型。隨著威脅形勢的變化,更好的解決方案仍需要不斷發(fā)展,以識別操縱風(fēng)險并在人工智能能力不斷增強的背景下建立對語音界面的信任。
智譜AI發(fā)布GLM-4大模型,具有媲美GPT-4的中文能力,支持更長上下文、多模態(tài)能力,2024被稱為AGI元年。PortkeyAIGateway:一個連接多種人工智能模型的開源工具PortkeyAIGateway是一個連接多種人工智能模型的開源工具,允許開發(fā)者通過簡單的API接口訪問超過100種不同的大語言模型,包括OpenAI、Anthropic、Mistral、LLama2等。
微軟推出了一款名為DeepfakesCreator的工具,被稱為AzureAISpeech的文本到語音化身。這個工具可以通過文本輸入生成逼真的會說話的真人視頻。DeepfakesCreator可以廣泛應(yīng)用于創(chuàng)建各類吸引人的視頻和交互式應(yīng)用,提高溝通和信息傳達的效率。
深度偽造技術(shù)正在引發(fā)嚴重的社會問題,雖然政治上的深度偽造已經(jīng)引起廣泛關(guān)注,但大多數(shù)非自愿深度偽造內(nèi)容仍以色情為主,主要困擾著婦女。最近的一部紀錄片《AnotherBody》揭示了這一問題,以揭露深度偽造受害者的個人創(chuàng)傷和他們采取的行動。它呼吁社會更加關(guān)注這一問題,以采取更多措施來防止深度偽造的濫用。
德國知名新聞主播AndréSchünke最近成為Deepfake濫用的受害者。騙子利用他們的數(shù)碼復(fù)制品在Facebook上的虛假宣傳視頻中做廣告,宣傳一個AI支持的投資平臺,承諾巨大的利潤。監(jiān)管機構(gòu)和技術(shù)公司必須采取行動,限制這種技術(shù)的濫用,保護公眾。
德國多名知名新聞主播被深度偽造利用,在包含錯誤信息的宣傳視頻中非法使用其形象,這引發(fā)了對深度偽造技術(shù)濫用的擔(dān)憂。其中德國第二電視臺主播克里斯蒂安·西弗斯在Facebook發(fā)現(xiàn)自己的“雙胞胎”在一個投資廣告中夸大產(chǎn)品,聲稱能輕松獲利。有觀點認為,此類亂用名人形象損害信譽的行為可能會進一步擴散,如果任由其發(fā)展,會嚴重妨礙信息的可信度。
本文概要:1.擔(dān)心訓(xùn)練數(shù)據(jù)集中的偏見會導(dǎo)致少數(shù)族裔承受欺詐、詐騙和虛假信息的壓力。2.大部分深度偽造檢測器是基于依賴于用于訓(xùn)練的數(shù)據(jù)集的學(xué)習(xí)策略。專家們呼吁建立更具包容性的訓(xùn)練集和標準化的測量方法,以解決深度偽造檢測工具的偏見問題。
美國的七家科技巨頭公司包括OpenAI、谷歌等聯(lián)合宣布,未來將在生成式AI創(chuàng)作的文本、圖片、音頻、視頻中加入可識別的水印,標明所有DeepFake作品,維護信息安全。這項舉措旨在解決DeepFake技術(shù)帶來的虛假信息傳播問題。這一舉措標志著在開發(fā)負責(zé)任的人工智能上邁出了關(guān)鍵的一步。
一群人工智能領(lǐng)導(dǎo)者創(chuàng)建了第一個透明的deepfake視頻,使用合成創(chuàng)作和標記本身,在一個越來越關(guān)注合成媒體傳播的領(lǐng)域提供透明度。創(chuàng)建透明的deepfake視頻標志著朝著明確標記內(nèi)容如何創(chuàng)建或更改邁出了重要的一步,鑒于對合成媒體的日益關(guān)注,這是一項必要的措施。
越來越多的視頻是 AI 工具偽造的,效果十分逼真,比如視頻AI換臉,又或者使用別人的臉或聲音來創(chuàng)造一個新的事件圖像等等。你已經(jīng)看過一個但不知道它是一個深度造假的視頻。皮尤研究中心的數(shù)據(jù)顯示,當(dāng)一個深度謊言獲得數(shù)百萬分享時,已經(jīng)太晚了,因為63%的美國成年人承認,一個經(jīng)過修改的視頻讓他們對時事感到困惑。
PNAS 上的一項新研究表明:人工智能(AI)合成的面孔,并不僅僅會欺騙那些認為他們可能真實的人,甚至較真人更易取得大家的信任...結(jié)果發(fā)現(xiàn),他們的猜測準確率只有 48%,甚至不如拋個硬幣來瞎猜的準確率...研究配圖 - 4:一組具有代表性的真人 / 合成面孔...但當(dāng)讓另外 223 名參與者對 128 張面孔的可信度進行打分時,他們再次被驚到 —— 因為大家更容易被合成人臉所欺騙(較真人高出 8%)...研究人員指出,假面孔得分更高的部分原因,是因為他們更加普通,且之前的研究發(fā)現(xiàn)大家更易相信這些“平均臉”......
在“美顏相機”已經(jīng)讓不少網(wǎng)友分辨不清真假的當(dāng)下,F(xiàn)acebook 也在努力讓通過 Deepfake 制作的內(nèi)容“現(xiàn)出原形”,以便未來能夠?qū)ο嚓P(guān)內(nèi)容展開追溯。在持續(xù)資助的相關(guān)研究中,最新項目就是與密歇根州立大學(xué)(MSU)研究人員達成的一項合作??芍@支聯(lián)合團隊打造了一套可對 Deepfake 偽造進行逆向工程的方法。(圖自:Facebook AI 官網(wǎng))具體說來是,這套逆向工具能夠分析 AI 生成的圖像,以揭示創(chuàng)建它的機器學(xué)習(xí)模型的識別特征。這項
雖然目前 Deepfakes 換臉偽造情況在 Facebook 上并不是很突出,但這家社交網(wǎng)絡(luò)巨頭正加大對該技術(shù)的研究力度,以防范潛在的未來威脅。通過和密歇根州立大學(xué)(MSU)多位學(xué)者的合作,F(xiàn)acebook 創(chuàng)造了一種逆向設(shè)計深度假象的方法:分析人工智能生成的圖像,以揭示創(chuàng)造它的機器學(xué)習(xí)模型的識別特征。圖片來自于 The Verge這項工作非常有用,因為它可以幫助 Facebook 追蹤在其各種社交網(wǎng)絡(luò)上傳播 Deepfakes 的不良分子。這些內(nèi)容可能包括
利用三個城市的衛(wèi)星照片,并借鑒用于操縱視頻和音頻文件的方法,一個研究小組著手確定檢測虛假衛(wèi)星照片的新方法,警告?zhèn)卧斓牡乩砜臻g數(shù)據(jù)的危險,并呼吁建立一個地理事實核查系統(tǒng)。該研究于2021年4月21日發(fā)表在《地圖學(xué)與地理信息科學(xué)》雜志上。"這些技術(shù)已經(jīng)存在了。我們只是試圖揭露使用相同技術(shù)的可能性,以及為其制定應(yīng)對策略的必要性。"這個簡化的插圖顯示了如何通過將基礎(chǔ)地圖(城市A)放入深度偽造的衛(wèi)星圖像模型中來生成模
雖說受到了打壓,但是在自身發(fā)展上,TikTok還是要繼續(xù)前行。據(jù)TikTok今天出爐的新調(diào)整看,該平臺將明確禁止Deepfake視頻內(nèi)容(主要是美國方面),主要是這類以人工智能合成的視頻,其可以以假
隨著技術(shù)的不斷成熟,Deepfake卻帶來隱藏的“虛假”風(fēng)險。自從 2017 年,一位網(wǎng)友將美國女星和成人電影女主做了人臉交換,偽造了一段色情視頻后,有關(guān)濫用Deepfake制造虛假、不良內(nèi)容的視頻一直充斥于網(wǎng)絡(luò)。
據(jù)外媒報道,F(xiàn)acebook 日前宣布了其首屆 Deepfake 檢測挑戰(zhàn)賽的結(jié)果,獲勝算法能夠以 65.18% 的平均準確率發(fā)現(xiàn)非常逼真的 Deepfake 虛假內(nèi)容。
誕生之初,Deepfake是一項有趣的圖像處理技術(shù),僅僅帶來搞笑和娛樂視頻,但殊不知,潘多拉魔盒就此被打開,催生出 黑產(chǎn)、惡搞政客“操縱”民意,Deepfake正逐步進化為一種新型“病毒”,人類倫理道德的“遮羞布”也被無情揭開。圖:Saturday Night Live中凱特·麥金農(nóng)換臉伊麗莎白·沃倫面對因新技術(shù)而引發(fā)的公眾恐慌,相關(guān)監(jiān)管機構(gòu)也加快采取行動,出臺“打假”策略,旨在打擊Deepfake虛假音視頻,控制“造假病毒”的傳播。同時,
11月12日據(jù)機器之心消息,昨日,推特正式發(fā)布了首個反Deepfake策略草案。該公司表示,如果Deepfake內(nèi)容威脅到某人的人身安全或可能造成嚴重傷害,他們會將該內(nèi)容從推特上刪除。目前,推特還在為這項草案征集公眾意見。
?近日,知名咨詢公司Gartner在美國奧蘭多舉行的Gartner研討會上發(fā)布了 2020 年十大戰(zhàn)略技術(shù)趨勢,其中包括了實用區(qū)塊鏈(Practical Blockchain),Gartner指出,區(qū)塊鏈可用于建立信任、提供透明度、實現(xiàn)跨業(yè)務(wù)生態(tài)系統(tǒng)的價值交換、降低成本、減少交易時間并改善現(xiàn)金流等,另外區(qū)塊鏈資產(chǎn)可用于追溯來源,大大減少了假貨替換的機會,其還在身份管理等行業(yè)具有應(yīng)用潛力。
Deepfake來源自英文“deep learning”(深度學(xué)習(xí))和“fake”(偽造)的混成詞,專指用基于人工智能AI的人體圖像合成技術(shù)。此技術(shù)可將已有的圖像和影片疊加至目標圖像或影片上,比如AI換臉。
在 AI 換臉應(yīng)用 deepfakes 被別一些人用于色情目的后,近期曝出的 DeepNude 項目又濫用了 AI 來創(chuàng)建女性的假裸照。為了整治平臺上的亂象,GitHub 在近日接受 Motherboard 采訪時稱,該平臺將封殺 DeepNude 項目,因其違反了社區(qū)內(nèi)不得創(chuàng)建“性淫穢內(nèi)容”的規(guī)則。為此,他們已經(jīng)刪除了多個存儲庫,包括由最初的 DeepNude 創(chuàng)建者正式運行的存儲庫。