Sam Altman預(yù)警:AI滅絕人類!375+大佬簽署22字聯(lián)名信,LeCun唱反調(diào)
3月,千名大佬簽署暫停「超級AI」研發(fā)的聯(lián)名信,讓整個業(yè)界為之震驚。
就在昨天,一封只有22個字的聯(lián)名信再次引起軒然大波。
寥寥數(shù)語,把AI類比為了傳染病和核戰(zhàn)爭,分分鐘滅絕人類的那種。
簽名者中,有Hinton和Bengio兩位人工智能的「教父」,還有硅谷巨頭的高管,Sam Altman、Demis Hassabis等在人工智能領(lǐng)域工作的研究人員。
截止目前,已經(jīng)有370多名從事人工智能高管都簽署了這份聯(lián)名信。
然而,這封信并不是得到所有人的支持。
「圖靈三巨頭」中的一位LeCun直言:我不同意。
「人工智能放大了人類的智慧,這在本質(zhì)上是一件好事,與核武器和致命的病原體不同。我們甚至沒有一個可靠的藍(lán)圖來創(chuàng)造接近人類水平的人工智能。一旦我們做到了,我們會想出讓它安全的方法。」
這封聯(lián)名信究竟說了啥?
「致命」公開信
22字,言簡意賅:
「降低AI給人類帶來滅絕的風(fēng)險,應(yīng)該被提到全球級別的優(yōu)先程度。就像我們應(yīng)對傳染病、核戰(zhàn)爭這種社會危機一樣?!?/span>
而簽署這封公開信的AI界人士一眼根本望不到頭。
赫然映入眼簾的就是Geoffrey Hinton,Yoshua Bengio,谷歌DeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。
這里面Hinton的含金量不用多說,前谷歌副總裁、深度學(xué)習(xí)泰斗、神經(jīng)網(wǎng)絡(luò)之父,以及圖靈獎獲得者。
Yoshua Bengio同樣也是圖靈獎獲得者,和Hinton,LeCun被合稱為圖靈獎三巨頭。(然而LeCun在這件事上和另兩個巨頭態(tài)度截然相反)
除了在科技巨頭公司任職的大佬,還不乏知名AI學(xué)者。比如UC伯克利的Dawn Song,清華大學(xué)的張亞勤。
而在這些耳熟能詳?shù)拿窒旅?,就是?shù)不勝數(shù)的AI界人士了。
甚至,每個人都可以參與簽署這封公開信。
只要填寫姓名、郵箱、職位等等信息,就可以參與簽署了。
不過,可以選擇的身份并不多。(狗頭)
反對:滅絕人類純扯淡
當(dāng)然,Meta首席科學(xué)家LeCun還是一如既往地「唱唱反調(diào)」。
他一向的觀點都是:現(xiàn)在的AI發(fā)展剛哪兒到哪兒啊,就天天把威脅和安全掛在嘴邊。
他表示,所列出的威脅,根本不是現(xiàn)在AI發(fā)展的水平能達(dá)到的,因為壓根不存在。在我們基本設(shè)計出狗級別的人工智能(更不用說人類級別)之前,討論如何使其安全還為時過早。
斯坦福大學(xué)的吳恩達(dá)立場和LeCun相同,但理由卻有點不同。
他認(rèn)為,不是AI會導(dǎo)致各種各樣的問題,而是我們將會遇到的各種各樣的問題只能靠AI來解決。
比如:下一次傳染病爆發(fā),氣候變化導(dǎo)致的人口減少,小行星撞地球等等。
他表示,人類想繼續(xù)生存、繁榮下去,得加速AI的發(fā)展,而不是減慢。
也有網(wǎng)友評論,你說的這個不是AI,而是MAGIC(魔法)吧。
AI風(fēng)險面面觀
那么,這些大牛們所宣稱的足以滅絕人類的風(fēng)險包括什么呢?
他們總結(jié)了以下8個方面。
武器化
部分人可能會將AI用于帶有破壞性的地方,會導(dǎo)致人類生存的風(fēng)險,加劇政治動蕩。
比方說,現(xiàn)在深度強化學(xué)習(xí)的技術(shù)已經(jīng)可以應(yīng)用于空戰(zhàn)了,機器學(xué)習(xí)能用于制造化學(xué)武器(已有論文表明,GPT-4可以在實驗室中自主進(jìn)行實驗、合成化學(xué)品)。
此外,近年來研究人員一直在開發(fā)用于自動進(jìn)行網(wǎng)絡(luò)打擊的AI系統(tǒng),還有軍方領(lǐng)導(dǎo)人想要讓AI控制核發(fā)射井。
因此,未來AI強國會占據(jù)戰(zhàn)略優(yōu)勢,各國之間的軍備競賽會轉(zhuǎn)向AI領(lǐng)域。就算大部分國家都確保各自構(gòu)建的系統(tǒng)是安全的,且不會威脅他國安全,仍然可能有國家蓄意用AI做壞事,造成傷害。
這給人的感覺就像核武器,有一個不聽話不老實的就全白玩兒。
因為數(shù)字領(lǐng)域的危害傳播速度很快。
信息誤傳
信息誤傳這個事情大家早就有所耳聞。遠(yuǎn)的不說,前一陣子美國律師用ChatGPT打官司,結(jié)果舉的案例有6個都是杜撰的例子,現(xiàn)在還熱乎著。
而有影響力的集體,比如國家、政黨、組織,有能力用AI來影響(通常是潛移默化地)并改變普通人的政治信仰、意識形態(tài)等等。
同時AI本身也有能力生成非常有煽動性(或者說有說服力)的觀點,激起用戶強烈的情緒。
而這些預(yù)想的可能后果是完全不可預(yù)料的,不得不防。
代理「把戲」
AI系統(tǒng)根據(jù)具象的目標(biāo)進(jìn)行訓(xùn)練,而這些目標(biāo)只是我們?nèi)祟愃匾暤臇|西的間接代理。
就好像AI經(jīng)過訓(xùn)練,就可以給用戶推送他們愛看的視頻或文章一樣。
但并不代表,這種方式就是好的。推薦系統(tǒng)可能會導(dǎo)致人們的想法越來越極端,也更容易預(yù)測每個用戶的偏好。
而隨著未來AI的性能越來越強、影響越來越大,我們拿來訓(xùn)練系統(tǒng)的目標(biāo)也必須更加仔細(xì)的確認(rèn)。
人類「退化」
如果看過「機器人總動員」這部電影,我們就能想象未來時代,機器越來越強,人類是一副什么樣子。
大腹便便、身體素質(zhì)低下、毛病一堆。
就是因為,什么都交給AI了,人類自然就要「退化」了。
尤其是,在大量崗位被AI的自動化所取代的未來圖景下,這種場面更成為可能中的很可能。
不過,按LeCun的觀點,估計又得批駁一番。咱離「機器人總動員」想象的場景還差得遠(yuǎn)。
技術(shù)壟斷
與技術(shù)本身無關(guān),這一點強調(diào)的是可能會出現(xiàn)的「技術(shù)壟斷」。
也許有一天,最強大的AI由越來越少的利益相關(guān)者所掌控,使用權(quán)也被他們牢牢地捏在手心。
而真到了那一步的話,剩下的普通人就只能處在一個任人擺布的狀態(tài),因為根本反抗不了。
想想大劉的科幻小說「贍養(yǎng)人類」吧。
一個終產(chǎn)者靠著AI統(tǒng)治著全球的everybody,多可怕。
不可控的發(fā)展
這點主要想說明,AI系統(tǒng)發(fā)展到某一步,可能結(jié)果會超出設(shè)計者的想象,且無法再進(jìn)行控制。
實際上這也是主流的擔(dān)心所糾結(jié)的地方。
總會有人擔(dān)心,AI發(fā)展到最后,會像「終結(jié)者」里的「天網(wǎng)」一樣,或者「鋼鐵俠」里的「奧創(chuàng)」一樣,不受掌控,試圖毀滅人類。
或者換句話說,有些風(fēng)險只有在發(fā)展的進(jìn)程中才能發(fā)現(xiàn),而真到發(fā)現(xiàn)的時候就已經(jīng)晚了。甚至還可能會出現(xiàn)新的目標(biāo)。
欺騙
這點有一些抽象,簡單來說,就是AI系統(tǒng)可能會「欺騙」人類。
這種「欺騙」并不是故意的,只是因為AI為了實現(xiàn)代理人的目標(biāo)是處的手段而已。
通過「欺騙」獲得人類的認(rèn)可,要比通過正常渠道獲得人類的認(rèn)可更高效,而效率才是AI首要考慮的要素。
尋求權(quán)力的行為
這點和技術(shù)壟斷之間有相關(guān)性。
正因為會出現(xiàn)技術(shù)壟斷的情況,各國就會追求壟斷技術(shù)的權(quán)力。
而這種「追求」,很可能是會帶來難以預(yù)料的后果的。