致:
各國領(lǐng)導(dǎo)人、聯(lián)合國秘書長、世界優(yōu)質(zhì)科學(xué)家與學(xué)者、知名企業(yè)家、知名媒體人。
尊敬的各位佼佼者:
回望剛剛過去的 2024 年,我深感,我們又一次站在了歷史的十字路口。科技進步帶來了巨大的希望,也帶來了同樣深刻的危機。作為“拯救人類行動組織(人類會)”的創(chuàng)始人,我懷著極大的焦慮與責(zé)任,再次寫信給您們。今天,我們面臨的不僅僅是科技發(fā)展的挑戰(zhàn),更是人類生死存亡的危機。
自工業(yè)革命以來,科學(xué)技術(shù)一直在飛速的發(fā)展。尤其是過去的幾十年里,科技更是令人驚嘆的改變著我們的生活。從信息革命到生物科技的飛躍,再到人工智能的迅速崛起,我們的智慧與力量日益強大。然而,令人憂慮的是,正是這種力量,也正在加速我們物種的終結(jié)。
當(dāng)我們站在今天的技術(shù)高峰上,回望過去,無數(shù)科學(xué)家和智者曾警告過我們:“科學(xué)技術(shù)是一把雙刃劍?!彼軌驇順O大的福利,但同時也隱含著巨大的毀滅。如今,這一警告變得愈加確切與真實。多個前沿科技領(lǐng)域,隨著技術(shù)不斷突破,都在推動我們不斷邁向未知的邊界。特別是人工智能(AI),它的快速發(fā)展已經(jīng)讓我們無法忽視其中的巨大風(fēng)險。
諾貝爾物理學(xué)獎在 2024 年被授予了兩位在人工智能領(lǐng)域作出杰出貢獻的科學(xué)家,而諾貝爾化學(xué)獎的一半,也授予了兩位在人工智能領(lǐng)域作出杰出貢獻的科學(xué)家。這一獎項代表了科技發(fā)展的比較高榮譽,而人工智能,無疑是這個時代較具革命性的科技之一。問題在于,人工智能帶來的不僅僅是變革,它還伴隨著無法預(yù)見的危險——AI一旦走向失控,可能直接威脅到我們整個物種的存續(xù)。
這里我想特別舉例,正是因在人工智能領(lǐng)域作出杰出的貢獻獲得了 2024 年諾貝爾物理學(xué)獎的科學(xué)家杰弗里·辛頓,他就曾警告人工智能失控的危險。他明確指出,人工智能的發(fā)展存在著無法預(yù)測的風(fēng)險,而這一風(fēng)險,極有可能在未來幾十年內(nèi)加速人類滅絕的進程。辛頓的警告是令人震驚的,他估計未來 30 年內(nèi),人工智能導(dǎo)致人類滅絕的概率高達10%到20%。然而,面對這一科學(xué)家的警告,整個社會卻沒有真正的警覺。相反,這一獎項反而成為進一步推動人工智能發(fā)展的動力。
這一切都折射出當(dāng)今社會的極度不理性。諾貝爾獎,作為世界科技界的比較高榮譽,原本應(yīng)該成為對科學(xué)發(fā)展的審慎引導(dǎo)。但如今,人工智能技術(shù)的獲獎?wù)?,不僅自己發(fā)出了關(guān)于“失控”的警告,社會卻依然在追求更加極端的科技突破,似乎完全無視其中蘊含的災(zāi)難性后果。這種現(xiàn)象,正是今天人類面臨的比較大困境:當(dāng)貪婪與短期利益壓倒了理性與長遠的生存思考時,我們便開始走向自我毀滅。
自 1979 年起,我就開始從事這方面的研究,至今已經(jīng)有 46 個年頭, 18 年前的 2007 年,我出版了《拯救人類》一書,提出了科學(xué)技術(shù)的繼續(xù)發(fā)展必定很快滅絕人類的警告,我在書中明確指出,如果我們不對科技發(fā)展進行嚴格限制,不對科技的發(fā)展設(shè)定明確的框架,那么人類這一物種將會很快被滅絕,長則二三百年,短則就在本世紀。并借這一書出版的機會,首先次致信人類佼佼者,呼吁務(wù)必重視這一問題。
2018 年,我在美國注冊了“拯救人類行動組織(人類會)”,就是想通過一個更有力的平臺,推動這一全球性問題的解決。然而,迄今為止,盡管有不少科學(xué)家和學(xué)者提出警告,全球范圍內(nèi)關(guān)于科技管控的討論仍然停留在表面??萍嫉臒o節(jié)制發(fā)展已經(jīng)成為不可忽視的隱患,科學(xué)家們不斷提出問題,但整個世界似乎沒有真正的覺醒。
作為“拯救人類行動組織(人類會)”的創(chuàng)始人,今天,我再次寫信給您們——那些能夠影響人類未來命運的佼佼者們。懇請您們能夠正視這樣的一個思考:科學(xué)技術(shù)的迅猛發(fā)展,是否已經(jīng)超出了我們文明能夠承受的范圍?它將是我們通往輝煌未來的橋梁,還是人類自我滅絕的導(dǎo)火索?
在此,我要再一次呼吁,面對這場即將到來的災(zāi)難,我們必須采取果斷的行動。
我要強調(diào)的是,單靠某一國家、某一地區(qū)的力量無法應(yīng)對這一問題??萍紟淼耐{是全球性的,我們需要全球范圍的協(xié)調(diào)與合作。而這一切的前提,是我們必須意識到,科學(xué)技術(shù)的發(fā)展必須受到嚴格的限制,必須有全球性的統(tǒng)一治理機制來管控。
為此,我在《拯救人類》一書中提出了我的解決方案:人類必須走向大統(tǒng)一,建立全球統(tǒng)一的政權(quán),并以這一政權(quán)為基礎(chǔ),全面掌控科技發(fā)展,嚴格限制科技的進步速度與方向。這一解決方案并非空洞的理想,而是避免人類滅絕的僅有出路。
尊敬的各位佼佼者,我們已經(jīng)沒有時間再猶豫。當(dāng)前的科技突破,雖然可能會帶來無盡的利潤與短期的效益,但它們也在不斷加速我們的滅絕進程。人類的生存問題,已不再是未來某個時代的課題,而是一個迫切的現(xiàn)實。我們必須以全球共同體的身份,立即采取行動,防止科技失控帶來的災(zāi)難。
為了避免滅絕,首先,必須要認識到科技發(fā)展與人類存續(xù)之間的緊密聯(lián)系,科技不能脫離人類倫理和生存底線。其次,必須建立全球科技管控框架,確保每一項技術(shù)都能經(jīng)過嚴格的審查與限制,確保不會超出我們能夠掌控的范圍。最終,必須促使全球各國走向大統(tǒng)一,創(chuàng)建全球統(tǒng)一政權(quán),以確??萍脊芸夭皇艿貐^(qū)性、政治性利益的干擾。
人類已經(jīng)走到了這個岔路口,未來的道路將由我們每一個人的選擇決定。我們只有一次機會,再不采取斷然措施,錯過了,便是萬劫不復(fù)。作為全球的掌舵者,您們肩負著改變?nèi)祟惷\的責(zé)任?,F(xiàn)在是時候覺醒了,是時候采取行動,必須要走出一條不以科技毀滅我們自己的道路。
讓我們攜手合作,共同建立一個更為安全、更加負責(zé)任的科技發(fā)展體系,捍衛(wèi)我們共同的未來。
拯救人類行動組織(人類會)創(chuàng)始人
胡家奇
2025 年 1 月 1 日
(推廣)