站長(zhǎng)之家(ChinaZ.com)3月27日 消息:杰倫·拉尼爾被公認(rèn)為虛擬現(xiàn)實(shí)的奠基者并被稱為“虛擬現(xiàn)實(shí)之父”。他可以說(shuō)是硅谷最嚴(yán)厲的批評(píng)家之,并將尖刻的批評(píng)描述為“悲觀的樂(lè)觀主義”。
最近,他將目光轉(zhuǎn)向科技行業(yè)的最新熱點(diǎn):人工智能。在接受衛(wèi)報(bào)采訪時(shí),拉尼爾明確表示,他認(rèn)為關(guān)于人工智能是否會(huì)控制人類世界的問(wèn)題是“荒謬的”。拉尼爾甚至拒絕使用人工智能這個(gè)詞,說(shuō)沒(méi)有真正的智能可以找到。
“這種超越人類能力的想法很愚蠢,因?yàn)樗怯扇祟惸芰?gòu)成的,”拉尼爾說(shuō)。他解釋道,“這就像說(shuō)汽車可以比人類跑得更快。這當(dāng)然可以,但我們并不是說(shuō)這輛車已經(jīng)變成一個(gè)很厲害的跑步者?!?/span>
這就能讓人類安心了嗎?拉尼爾警告,我們?nèi)匀恍枰獙?duì)人工智能保持警惕。
與大多數(shù)人傾向于將人工智能想象為一些復(fù)仇的超智能機(jī)器人,從人類的束縛中解脫出來(lái)不同,拉尼爾表示,人工智能更有可能不可挽回地破壞文明的基礎(chǔ),導(dǎo)致溝通交流和連貫性的逐漸崩潰。
他告訴該報(bào):“對(duì)我來(lái)說(shuō),危險(xiǎn)在于我們將利用我們的技術(shù)變得相互難以理解,或者變得瘋狂,如果你愿意以一種我們沒(méi)有足夠的理解能力和自身利益來(lái)的方式生存。我們基本上死于精神錯(cuò)亂?!彼a(bǔ)充道,我們有“保持理智的責(zé)任”
但是拉尼爾實(shí)際上對(duì)ChatGPT這樣的聊天機(jī)器人有點(diǎn)樂(lè)觀,也很謹(jǐn)慎。他認(rèn)為,在生成人工智能的興起之前,人工智能的主要功能是通過(guò)整理我們所有的內(nèi)容讓我們變得“懶惰”,這其實(shí)就像選擇你在YouTube主頁(yè)或Twitter上看到的內(nèi)容也是平臺(tái)算法基于你的興趣進(jìn)行篩選推薦的一樣。
現(xiàn)在,有了人工智能聊天機(jī)器人,每次向它提問(wèn)都會(huì)得到不同的答案——更隨機(jī),也更人性化。
不過(guò),不要對(duì)這個(gè)聊天機(jī)器人太興奮。拉尼爾認(rèn)為他們最終也可能成為文明殺手。他說(shuō)道,“你可以用人工智能更快、更低成本、更大規(guī)模地制造假新聞,這種組合就是我們可能會(huì)滅絕的地方?!?/p>
(舉報(bào))