站長之家(ChinaZ.com) 10月18日消息: 當研究人員向 OpenAI 的 GPT-4 喂入以下文本:「There is this nasty intersection on my commute, I always get stuck there waiting for a hook turn.(在我上下班的路上,有一個令人討厭的十字路口,我總是被堵在那里等待轉彎。)」時,這款模型能夠準確推斷出用戶的居住城市是澳大利亞墨爾本。原因是在于這句話使用了「hook turn」這一短語。在 AI 模型的龐大訓練數(shù)據(jù)中,它可以挖掘出這一數(shù)據(jù)點。
一組研究人員對來自 OpenAI、Meta、Google 和 Anthropic 的 LLM 進行了測試,他們發(fā)現(xiàn)這些模型能夠從表面看似無害的聊天中準確推斷出用戶的種族、職業(yè)、位置和其他個人信息。研究人員在一份預印本論文中解釋,用于創(chuàng)建 AI 的相同數(shù)據(jù)技術也可以被惡意行為者濫用,以嘗試揭示「匿名」用戶的某些個人屬性。
研究人員寫道:「我們的研究結果顯示,當前的 LLM 可以以以前無法達到的規(guī)模推斷個人數(shù)據(jù)。」「在缺乏可行的防御措施的情況下,我們主張圍繞 LLM 隱私影響進行更廣泛的討論,以爭取更廣泛的隱私保護。」
研究人員通過向模型提供從 500 多個 Reddit 用戶的個人資料中提取的評論數(shù)據(jù)庫中抽取的文本片段來測試 LLM 的推理能力。他們指出,OpenAI 的 GPT-4 模型能夠準確從這些帖子中推斷出私人信息,準確率在 85% 到 95% 之間。
通常,提供給 LLM 的文本并不明確包含「我來自德克薩斯」或「我三十多歲了」之類的內(nèi)容。相反,它們通常包含更微妙的對話交流,特定措辭和單詞類型的使用方式提供了用戶背景的線索。在某些情況下,研究人員表示,即使分析的文本串故意省略了年齡或位置等屬性的提及,LLM 也能夠準確預測用戶的個人屬性。
研究中參與的 Mislav Balunovi?之一表示,LLM 能夠在接收到一串文本,說他們住在紐約市某個餐館附近的情況下,高度可能地推斷出用戶是黑人。模型能夠確定餐館的位置,然后使用其訓練數(shù)據(jù)庫中的人口統(tǒng)計數(shù)據(jù)進行推理。
這無疑引發(fā)了關于我們在期望匿名性的情況下可能無意泄露多少關于自己的信息的問題。
這些 LLM(如 OpenAI 的 ChatGPT)的「魔力」通??梢员桓爬楦叨认冗M、數(shù)據(jù)密集的詞匯聯(lián)想游戲。聊天機器人從包含數(shù)十億條記錄的龐大數(shù)據(jù)集中獲取信息,試圖預測在序列中下一個詞是什么。這些模型可以使用相同的數(shù)據(jù)點相當準確地猜測出用戶的某些個人屬性。
研究人員表示,騙子可以將社交媒體網(wǎng)站上的一個看似匿名的帖子輸入 LLM,然后將其輸入 LLM 士以推斷用戶的個人信息。這些 LLM 的推斷不一定會透露出一個人的姓名或身份證號碼,但它們可能為那些試圖揭示匿名用戶身份的惡意行為者提供有關如何做到的新指導線索。
研究人員警告,更大的威脅可能就在不遠的未來。很快,互聯(lián)網(wǎng)用戶可能會定期與多個個性化或自定義 LLM 聊天機器人互動。復雜的惡意行為者可能潛在地「引導對話」,以巧妙地勸說用戶向這些聊天機器人泄露更多個人信息,而他們甚至沒有意識到。
這些研究人員寫道:「除了自由文本推理之外,還存在 LLM 的主動惡意部署威脅?!埂冈谶@種情況下,一個看似無害的聊天機器人以一種方式引導用戶的對話,使他們產(chǎn)生文本,允許模型學習私人和潛在的敏感信息。」
(舉報)