《人類(lèi)簡(jiǎn)史》作者:AI 黑掉了人類(lèi)文明的操作系統(tǒng)
自然語(yǔ)言大模型的應(yīng)用爆發(fā)后,已經(jīng)有不少科技圈大佬從不同角度表達(dá)了對(duì)AI的看法。最近,《經(jīng)濟(jì)學(xué)人》雜志約稿知名歷史學(xué)家、哲學(xué)家、《人類(lèi)簡(jiǎn)史》的作者尤瓦爾·赫拉利(Yuval Harari),他撰文分享了他對(duì)AI的思考。
赫拉利延續(xù)了他在《人類(lèi)簡(jiǎn)史》中的觀點(diǎn),強(qiáng)調(diào)語(yǔ)言是幾乎所有人類(lèi)文化的構(gòu)成要素。擁有了語(yǔ)言生成能力的AI將通過(guò)語(yǔ)言影響人類(lèi)對(duì)世界的看法,”AI Hack了人類(lèi)文明的操作系統(tǒng)“。他將AI比作“核武器”, 呼吁人們立即行動(dòng)采取更多的安全措施,一個(gè)建議是“強(qiáng)制要求AI披露自己是AI”。
我們已經(jīng)看過(guò)各種“理科生”代表對(duì)AI的發(fā)言,人文學(xué)者則更具象地描述了AI可能如何通過(guò)語(yǔ)言影響對(duì)政治、宗教、商業(yè)。他大膽假設(shè),人類(lèi)未來(lái)可能會(huì)活在AI制造的幻覺(jué)中?!对钪嫒毡啡木幾g了他的文章。
從計(jì)算機(jī)時(shí)代開(kāi)始,對(duì)AI的恐懼就困擾著人類(lèi)。此前,人們主要是害怕機(jī)器會(huì)用物理的手段殺死、奴役或取代人類(lèi)。過(guò)去幾年,新的AI工具出現(xiàn)了,并從一個(gè)意想不到的方面對(duì)人類(lèi)文明的存續(xù)造成了威脅:AI獲得了一些處理和生成語(yǔ)言(無(wú)論是通過(guò)文字、聲音還是圖像)的非凡能力,因此已經(jīng)攻破了人類(lèi)文明的操作系統(tǒng)。
語(yǔ)言是幾乎所有人類(lèi)文化的構(gòu)成要素。例如,人權(quán)并不是刻在人類(lèi)DNA之中的,而是我們通過(guò)講故事和制定法律創(chuàng)造出來(lái)的文化產(chǎn)物;神不是物理存在的,而是我們通過(guò)創(chuàng)造神話和撰寫(xiě)經(jīng)文創(chuàng)造出來(lái)的文化產(chǎn)物。
貨幣也是一種文化產(chǎn)物。鈔票不過(guò)是五顏六色的紙片,而目前90%以上的錢(qián)甚至不是紙幣,而是電腦里的數(shù)字信息。賦予貨幣價(jià)值的是銀行家、財(cái)政部長(zhǎng)和加密貨幣專家給我們講的關(guān)于它的故事:FTX的創(chuàng)始人山姆·班克曼·弗里德(Sam Bankman-Fried),造假“滴血驗(yàn)癌”的女企業(yè)家伊麗莎白·霍姆斯(Elizabeth Holmes),以及史上最大的龐氏騙局策劃者伯納德·麥道夫(Bernie Madoff),他們都不怎么擅長(zhǎng)創(chuàng)造真正的價(jià)值,但他們都特別會(huì)講故事。
如果非人類(lèi)的智能體在講故事、創(chuàng)作旋律、繪制圖像以及編寫(xiě)法律和經(jīng)文方面比普通人更勝一籌,那會(huì)怎樣?
當(dāng)人們想到ChatGPT 和其他新的AI工具時(shí),他們常常會(huì)關(guān)注中小學(xué)生用AI寫(xiě)作文的例子。如果孩子們這么干,學(xué)校系統(tǒng)會(huì)發(fā)生什么變化? 但這類(lèi)問(wèn)題沒(méi)有抓住重點(diǎn)。先別管學(xué)校作文,想想2024年的下屆美國(guó)總統(tǒng)競(jìng)選,再試著想象一下AI工具可能會(huì)被用來(lái)炮制大量政治內(nèi)容和虛假新聞,這又會(huì)有怎樣的影響?
近年來(lái),“匿名者Q”的信徒圍繞網(wǎng)上發(fā)布的匿名爆料信息集結(jié)抱團(tuán)(編者注:“匿名者Q”是各種陰謀論的網(wǎng)絡(luò)集結(jié)地,其核心陰謀論是美國(guó)表面的政府內(nèi)部存在一個(gè)深層政府)。信徒們收集和推崇這類(lèi)陰謀論爆料,將其奉為圣經(jīng)。以前,所有的爆料貼都是由人編寫(xiě)的,機(jī)器只是幫助散播。但在未來(lái),我們可能會(huì)看到歷史上第一批由非人類(lèi)智能體編寫(xiě)經(jīng)文的異教??v觀歷史,各種宗教都聲稱其圣書(shū)并非出自人類(lèi)。這可能很快就會(huì)成為現(xiàn)實(shí)。
在更日常的層面上,我們可能很快就會(huì)發(fā)現(xiàn),我們以為自己是在網(wǎng)上跟真人長(zhǎng)篇大論探討墮胎、氣候變化或俄烏沖突,但對(duì)方實(shí)際上是AI。問(wèn)題在于,我們花時(shí)間試圖改變一個(gè)AI的看法毫無(wú)意義,而AI卻可以非常精準(zhǔn)地打磨信息,而這很有可能會(huì)影響我們的看法。
通過(guò)掌握人類(lèi)語(yǔ)言,AI甚至可能與人建立親密關(guān)系,并利用這種關(guān)系的力量改變我們的看法和世界觀。雖然沒(méi)有跡象表明AI有任何自己的意識(shí)或感受,但AI要與人類(lèi)培養(yǎng)虛假親密關(guān)系,只需讓人類(lèi)對(duì)它產(chǎn)生情感上的依戀就夠了。
2022年6月,谷歌工程師布雷克·萊莫恩(Blake Lemoine)公開(kāi)聲稱,他正在研究的AI聊天機(jī)器人LaMDA已經(jīng)有了感知力。這個(gè)有爭(zhēng)議的說(shuō)法讓他丟了工作。此事最有意思的地方不在于萊莫恩的言論(可能不實(shí)),而在于他為了給AI聊天機(jī)器人正名而甘愿承擔(dān)丟掉高薪工作的風(fēng)險(xiǎn)。如果AI可以讓人們?nèi)樗皝G工作的風(fēng)險(xiǎn),那它是否還可能誘導(dǎo)人們做些別的事呢?
在贏得民意、爭(zhēng)取民心的政治斗爭(zhēng)中,親近感是最有效的武器。而AI剛剛獲得了與千百萬(wàn)人建立親密關(guān)系的能力。
眾所周知,在過(guò)去十年中,社交媒體已成為爭(zhēng)奪人們注意力的戰(zhàn)場(chǎng)。隨著新一代AI的出現(xiàn),戰(zhàn)線正從注意力轉(zhuǎn)向親近感。假如AI和AI之間競(jìng)爭(zhēng)誰(shuí)能與人類(lèi)產(chǎn)生更親密的關(guān)系,然后再利用這種關(guān)系來(lái)說(shuō)服我們投票給某些政客或購(gòu)買(mǎi)某些產(chǎn)品,人類(lèi)社會(huì)和人類(lèi)心理發(fā)生怎樣的變化?
即使在不創(chuàng)造“虛假親密”的情況下,新的 AI工具也會(huì)對(duì)我們的看法和世界觀產(chǎn)生巨大的影響。人們可能會(huì)將某個(gè)AI顧問(wèn)當(dāng)作無(wú)所不知的一站式神明,難怪谷歌會(huì)慌了神。有問(wèn)題可以問(wèn)神明,為什么還要費(fèi)勁去搜索? 新聞和廣告行業(yè)自然也很恐懼,既然只要問(wèn)神明就能得到最新消息,為什么還要看報(bào)紙? 如果神明能告訴我該買(mǎi)什么,廣告還有什么用?
而就算設(shè)想到了這些場(chǎng)景,也依然沒(méi)能真正把握全局。當(dāng)我們討論的人類(lèi)歷史可能終結(jié)時(shí),說(shuō)的不是歷史的終結(jié),只是人類(lèi)主導(dǎo)的那部分歷史的終結(jié)。歷史是生物與文化相互作用的產(chǎn)物,是我們的生理需求和欲望(如食與性)與文化創(chuàng)造物(如宗教和法律)相互作用的產(chǎn)物。歷史是法律和宗教逐步影響飲食和性的過(guò)程。
當(dāng)AI接管了文化并開(kāi)始創(chuàng)造故事,旋律、法律和宗教,歷史進(jìn)程會(huì)發(fā)生什么變化? 以前,印刷機(jī)和收音機(jī)等工具促進(jìn)了人類(lèi)文化理念的傳播,但它們從未創(chuàng)造過(guò)自己的新文化理念。AI與它們有根本上的差異。AI可以創(chuàng)造全新的想法,全新的文化。
一開(kāi)始,發(fā)展初期的AI可能會(huì)模仿訓(xùn)練它的人類(lèi)。但隨著時(shí)間的推移,AI文化將大膽地走向人類(lèi)從未涉足過(guò)的領(lǐng)域。幾千年來(lái),人類(lèi)生活在其他人類(lèi)的夢(mèng)中。在接下來(lái)的幾十年里,我們可能會(huì)發(fā)現(xiàn)自己生活在非人類(lèi)的智能體的夢(mèng)中。
對(duì)AI的恐懼只是在過(guò)去幾十年里困擾著人類(lèi)。但幾千年來(lái),一種幽深得多的恐懼一直縈繞在人類(lèi)心頭。我們一直都明白故事和圖像具有操縱頭腦和創(chuàng)造幻覺(jué)的力量。因此,人類(lèi)自古以來(lái)就害怕被困在一個(gè)幻象的世界中。
在17世紀(jì),笛卡爾擔(dān)心自己可能被一個(gè)惡魔困在了一個(gè)幻覺(jué)世界中,他的一切所見(jiàn)所聞都不過(guò)是這惡魔設(shè)置的。古希臘的柏拉圖講述了著名的洞穴寓言: 一群人一輩子都被鐵鏈鎖在一個(gè)洞穴里,眼前只有一堵空白的洞壁,就像一個(gè)屏幕。囚徒們能看到洞外的世界投射在洞壁上的各種影子,于是,他們把這些幻象當(dāng)成了現(xiàn)實(shí)。
在古印度,佛教和印度教圣人指出,人類(lèi)都活在摩耶(幻象世界)之中。我們通常認(rèn)為是現(xiàn)實(shí)的東西往往只是我們自己頭腦中的幻象。人類(lèi)可能會(huì)因?yàn)橄嘈胚@樣或那樣的幻象而發(fā)動(dòng)戰(zhàn)爭(zhēng),殺戮他人,以及甘愿被殺。
AI革命把笛卡爾的惡魔,柏拉圖的洞穴和摩耶直接帶到了我們面前。一不小心,我們可能會(huì)被困在幻象的帷幕后面,撕扯不開(kāi),甚至無(wú)法意識(shí)到它的存在。
當(dāng)然,AI的新力量也可能得以善用。對(duì)此我不打算贅言,因?yàn)殚_(kāi)發(fā)AI的人已經(jīng)講得夠多了。像我這樣的歷史學(xué)家和哲學(xué)家的工作是指出AI的危險(xiǎn)所在。但毫無(wú)疑問(wèn),AI能以不計(jì)其數(shù)的方式幫助人類(lèi),從找到新的攻克癌癥的療法,到發(fā)現(xiàn)生態(tài)危機(jī)的解決方案等等。擺在我們面前的問(wèn)題是如何確保新的AI工具會(huì)被用干行善而不是做惡。為此,我們首先需要認(rèn)清這些工具的真實(shí)能力。
自1945年以來(lái),我們就知道核技術(shù)可以產(chǎn)生廉價(jià)能源,造福人類(lèi),但也能從物理上毀滅人類(lèi)文明。因此,為了保護(hù)人類(lèi)并確保核技術(shù)主要用干造福人類(lèi),我們重塑了整個(gè)國(guó)際秩序。現(xiàn)在我們必須應(yīng)對(duì)一種可以毀滅我們的精神世界和社會(huì)世界的新型大規(guī)模殺傷性武器。
我們?nèi)匀豢梢怨芸匦碌腁I工具,但必須迅速行動(dòng)。核武器無(wú)法發(fā)明更強(qiáng)大的核武器,但AI卻可以造就威力呈指數(shù)級(jí)增長(zhǎng)的 AI。
第一個(gè)關(guān)鍵步驟是在將強(qiáng)大的AI工具發(fā)布到公共領(lǐng)域之前必須對(duì)其進(jìn)行嚴(yán)格的安全檢查。正如制藥公司不能未經(jīng)測(cè)試短期和長(zhǎng)期副作用就發(fā)布新藥一樣,科技公司也不應(yīng)在確保安全性之前就發(fā)布新的AI工具。我們需要像美國(guó)食品和藥品監(jiān)督管理局(FDA)那樣的機(jī)構(gòu)來(lái)監(jiān)管新技術(shù)。這些事早就應(yīng)該做了。
放慢在公共領(lǐng)域部署AI的步伐難道不會(huì)導(dǎo)致民主國(guó)家落后于更不計(jì)后果的威權(quán)政權(quán)嗎? 恰好相反。不受監(jiān)管的AI部署會(huì)造成社會(huì)混亂,這將有利于獨(dú)裁者破壞民主制度。民主是一種對(duì)話,而對(duì)話依賴于語(yǔ)言。AI破解語(yǔ)言之后,可能會(huì)破壞我們進(jìn)行有意義對(duì)話的能力,從而毀壞民主。
我們才剛剛在地球上遭遇一種非人類(lèi)的智能體,對(duì)它還知之甚少,只知道它可能會(huì)摧毀人類(lèi)文明。我們應(yīng)該制止在公共領(lǐng)域不負(fù)責(zé)任地部署AI工具,在AI管控我們之前管控AI。而我的第一個(gè)監(jiān)管建議是要強(qiáng)制要求AI披露自己是AI。如果我在交談之中無(wú)法辨別對(duì)方是人還是AI,那就是民主的終結(jié)。