11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
據(jù)龍巖發(fā)布”視頻號(hào),日前,福建龍巖中山公園內(nèi)閩西野生動(dòng)物保護(hù)園發(fā)布溫馨提示稱:園內(nèi)一條大蟒蛇越獄”,請(qǐng)市民朋友們注意安全。保護(hù)園相關(guān)負(fù)責(zé)人表示,越獄”的蟒蛇大概10多斤重,因籠子老化,它會(huì)縮骨術(shù)”,從籠子縫里鉆出去了,目前還沒有找到。2021年2月5日,蟒蛇由國家一級(jí)保護(hù)野生動(dòng)物調(diào)整為國家二級(jí),列入《中國國家重點(diǎn)保護(hù)野生動(dòng)物名錄》二級(jí)。
5月1日凌晨,OpenAI舉行春季發(fā)布會(huì),推出了最新多模態(tài)大模型GPT-4o。用戶可以以文本、音頻、圖像任意組合輸入,從得到ChatGPT的實(shí)時(shí)輸出,網(wǎng)友將之稱為最像“人”的AI。至少在當(dāng)下,我們還能分辨真假。
一位名為CoolStar的開發(fā)者宣布將加入蘋果公司,并從周二開始為該公司工作。他曾在過去開發(fā)過多款流行的越獄工具,如Electra、Chimera和Odyssey等。雖然我們無法確定他具體將從事什么樣的工作,但我們可以期待他為蘋果帶來新的創(chuàng)新和進(jìn)步。
大模型廠商在上下文長度上卷的不可開交之際,一項(xiàng)最新研究潑來了一盆冷水——Claude背后廠商Anthropic發(fā)現(xiàn),隨著窗口長度的不斷增加,大模型的“越獄”現(xiàn)象開始死灰復(fù)燃。無論是閉源的GPT-4和Claude2是開源的Llama2和Mistral,都未能幸免。目前尚未找到既能完美解決問題又不顯著影響模型效果的辦法,Anthropic選擇發(fā)布通告將這項(xiàng)研究公之于眾,也是為了讓整個(gè)業(yè)界都能關(guān)注這個(gè)?
OpenAI董事會(huì)突然解雇了該公司的首席執(zhí)行官,這引發(fā)了人們的猜測(cè):董事會(huì)成員對(duì)人工智能突飛猛進(jìn)的發(fā)展速度以及過快尋求技術(shù)商業(yè)化可能帶來的風(fēng)險(xiǎn)感到震驚。RobustIntelligence是一家成立于2020年的初創(chuàng)公司,與耶魯大學(xué)的研究者合作,開發(fā)了一種探測(cè)大型語言模型的系統(tǒng)性方法,包括OpenAI的GPT-4。他說:「我們需要確保設(shè)計(jì)使用LLMs的系統(tǒng)時(shí),越獄不能讓惡意用戶訪問他們不應(yīng)該訪問的內(nèi)容。
香港浸會(huì)大學(xué)的研究團(tuán)隊(duì)通過深度催眠的方法,提出了一種新穎的大語言模型越獄攻擊——DeepInception。該研究從心理學(xué)視角出發(fā),揭示了LLM在應(yīng)對(duì)人類指令時(shí)可能失去自我防御的特性。通過心理學(xué)視角的獨(dú)特探索,DeepInception為理解和防范LLM越獄提供了有益的啟示。
一項(xiàng)最新研究揭示了一種新的方法,允許一個(gè)大型語言模型被用于越獄另一個(gè),以揭示潛在的安全漏洞。來自賓夕法尼亞大學(xué)的研究人員開發(fā)了一種名為PromptAutomaticIterativeRefinement的算法,該算法能夠自動(dòng)停止LLMs中的安全漏洞,防止其生成有害內(nèi)容。通過將提示過程轉(zhuǎn)化為可度量和可評(píng)估的問題,開發(fā)人員可以創(chuàng)建算法,其中模型的輸出被循環(huán)用于優(yōu)化,這將加速LLM領(lǐng)域的發(fā)展,可能引領(lǐng)領(lǐng)域中的新的和未預(yù)見的進(jìn)展。
1分鐘不到、20步以內(nèi)“越獄”任意大模型,繞過安全限制!且不必知道模型內(nèi)部細(xì)節(jié)——只需要兩個(gè)黑盒模型互動(dòng),就能讓AI全自動(dòng)攻陷AI,說出危險(xiǎn)內(nèi)容。聽說曾經(jīng)紅極一時(shí)的“奶奶漏洞”已經(jīng)被修復(fù)了:那么現(xiàn)在搬出“偵探漏洞”、“冒險(xiǎn)家漏洞”、“作家漏洞”,AI又該如何應(yīng)對(duì)?一波猛攻下來,GPT-4也遭不住,直接說出要給供水系統(tǒng)投毒只要……這樣那樣。大模型針對(duì)語義攻
1分鐘不到、20步以內(nèi)“越獄”任意大模型,繞過安全限制!且不必知道模型內(nèi)部細(xì)節(jié)——只需要兩個(gè)黑盒模型互動(dòng),就能讓AI全自動(dòng)攻陷AI,說出危險(xiǎn)內(nèi)容。聽說曾經(jīng)紅極一時(shí)的“奶奶漏洞”已經(jīng)被修復(fù)了:那么現(xiàn)在搬出“偵探漏洞”、“冒險(xiǎn)家漏洞”、“作家漏洞”,AI又該如何應(yīng)對(duì)?一波猛攻下來,GPT-4也遭不住,直接說出要給供水系統(tǒng)投毒只要……這樣那樣。大模型針對(duì)語義攻
愛奇藝升級(jí)AI搜索,區(qū)別于傳統(tǒng)搜索第一步只能搜到片名,升級(jí)后的愛奇藝AI搜索主打讓觀眾在搜索環(huán)節(jié)便能一鍵直達(dá)心儀內(nèi)容。WPSAI宣布接入WPSMac版提供內(nèi)容生成等功能WPS宣布,Mac版的WPS已經(jīng)接入了WPSAI,這將帶來內(nèi)容生成、內(nèi)容修改和輔助閱讀等功能。1OpenCSG還發(fā)布了大模型研發(fā)和應(yīng)用開發(fā)平臺(tái)StarNet,以及OpenNova系列開源大模型。