編輯 | 伊風(fēng)
“現(xiàn)存的機(jī)器顯然并不比人類更強(qiáng)大,馬也比我們強(qiáng)壯得多,速度也比我們快。但沒有人感受到馬的威脅。但AI并不是這樣?!?/span>
“我們現(xiàn)在還缺乏對(duì)具有人類水平智能的AI系統(tǒng)的藍(lán)圖規(guī)劃”。
“我們要阻止科學(xué)向一個(gè)方向或另一個(gè)方向發(fā)展是不可行的”。
“未來的AI系統(tǒng)必須是目標(biāo)驅(qū)動(dòng)且可控的?!?/span>
這些強(qiáng)烈的觀點(diǎn),是圖靈獎(jiǎng)獲得者楊立昆與其他三位AI界大佬,在瑞士達(dá)沃斯舉行的世界經(jīng)濟(jì)論壇上的圓桌內(nèi)容,圍繞著“我們應(yīng)不應(yīng)該恐懼AGI”"我們能不能控制AGI",他們展開了非常激烈、極具思辨性的探討和辯論。
在這場頭腦風(fēng)暴中,大家更深一步地探討了,人工智能生成的潛在極限是什么,我們離人工智能的其他變革性進(jìn)步還有多遠(yuǎn),以及當(dāng)我們說 "人工智能生成 "時(shí),我們到底是什么意思。
在開場時(shí),主持人要求嘉賓們按照對(duì)AGI問題的擔(dān)憂程度就坐,認(rèn)為問題越嚴(yán)重就越靠右側(cè)坐。
圖片
從左到右的AI專家依次是:
- Daniela Rus - 麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)的主任,專注于機(jī)器人學(xué)和人工智能。
- Yann LeCun(楊立昆) - 紐約大學(xué)教授,Meta的首席AI科學(xué)家,以其在深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)方面的貢獻(xiàn)而聞名。
- Stuart Russell - 加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)教授,主要研究人工智能的安全和監(jiān)管問題。
- Connor Leahy - AI研究員,以其在EleutherAI組織中的工作著稱,主要關(guān)注先進(jìn)的AI系統(tǒng)。
以下是經(jīng)過整理的圓桌內(nèi)容:
主持人:好的,現(xiàn)在把時(shí)間交給我們的圓桌嘉賓。當(dāng)然,人工智能目前面臨著許多挑戰(zhàn),我們需要應(yīng)對(duì)和解決。由于大選、詐騙和各種其他原因,今年的deepfake問題非常突出。如果你想了解更多,我們有一個(gè)deepfake演示工具,你可以自己進(jìn)行deepfake,并分享你的想法。但這不是我們現(xiàn)在要談?wù)摰?,因?yàn)槲覀円雇L遠(yuǎn)的未來。
從一開始,人工智能的最終目標(biāo)就一直是真正解決智能問題,并了解如何制造出與人類所能做到的所有事情能力相當(dāng)?shù)臋C(jī)器。這既令人興奮又令人恐懼。
我們?cè)谶@里的主要目標(biāo)并不是辯論我們是否應(yīng)該擔(dān)憂AI的未來,而是本著麻省理工學(xué)院的精神就可能的解決方案進(jìn)行一次頭腦風(fēng)暴,可以嗎?
我有一個(gè)非常激進(jìn)和異端的信念,即你實(shí)際上同意的東西比普通Twitter用戶可能意識(shí)到的要多得多。我們將通過提問探索下,看看我們是否能找到一些你們都同意的事情,現(xiàn)在我們將開始這個(gè)環(huán)節(jié)。所以我會(huì)用一些快問快答讓你們熱身,基本上只能回答是或否。
第一個(gè)問題,你是否對(duì)改進(jìn)人工智能以使其成為我們的工具并真正補(bǔ)充和幫助人類感到興奮,Yes or no?
Daniela:yes.
Yann:yes.
Stuart:yes.
Connor:yes.
主持人:下一個(gè)問題,你相信未來幾年人工智能會(huì)比現(xiàn)在好得多嗎?
Daniela:yes.
Yann:yes.
Stuart:yes.
Connor:yes.
主持人:現(xiàn)在,讓我們更難一點(diǎn)。所以,如果我們將通用人工智能定義為,可以在人類水準(zhǔn)或更好地完成所有認(rèn)知任務(wù)的人工智能,你覺得我們現(xiàn)在已經(jīng)擁有它了嗎?
Yann:絕對(duì)沒有
Connor:沒有
Daniela&Stuart:不,不。
主持人:好的,4個(gè)no。你認(rèn)為我們可能會(huì)在接下來的一千年內(nèi)擁有它嗎?
Daniela:也許?
Yann:當(dāng)然。
Connor:yes.
Stuart:yes.
主持人:你認(rèn)為你可能會(huì)在下一百年內(nèi)擁有它嗎?
Daniela:可能。
Yann:也許很可能。
Stuart:很可能,除非發(fā)生了核災(zāi)難。
Connor:是的。
主持人:好的,如果你去確定一個(gè)數(shù)字,比如多少年,我們就能等到有50% 的機(jī)會(huì)以某種方式實(shí)現(xiàn)AGI,你估計(jì)是哪一年?
Daniela:不會(huì)很快。
Yann:幾十年。
Stuart:比我以前想象的要少得多。
Connor:5.4.
主持人 :5.4年,好的,你說的很精確。所以我認(rèn)為,你們都會(huì)同意我們安排嘉賓坐在了正確的位置上,你應(yīng)該看到他們的警報(bào)級(jí)別與他們認(rèn)為我們將(實(shí)現(xiàn)AGI并且)不得不處理安全問題的速度相關(guān)。
所以很明顯,如果你有一些世界上領(lǐng)先的世界專家認(rèn)為它可能會(huì)相對(duì)較快發(fā)生,我們必須認(rèn)真對(duì)待這種可能性。問題是,我們?nèi)绾未_保AI成為我們可以控制的工具,以便我們可以獲得所有的正面影響,而不是風(fēng)險(xiǎn)?
在達(dá)沃斯真正打動(dòng)我的一件事是,我聽到的絕大多數(shù)人對(duì)AI、所有大多數(shù)醫(yī)學(xué)突破、消除貧困、改善全球氣候、創(chuàng)造偉大的新商業(yè)機(jī)會(huì)感到興奮,但這些都不需要AGI。
所以我實(shí)際上很好奇,是否有辦法讓我們解讀這個(gè)悖論。我們說,能做所有事情的偉大的人工智能,也許最早要到2040年才能做成。這是你們覺得可以接受的事情,還是你們覺得迫切需要盡可能快地使某些東西變得超級(jí)智能?這次你朝哪個(gè)方向走?你會(huì)說什么?
Connor:我可以接受。
主持人:你可以接受這一點(diǎn)。你呢Stuart,我們可以再詳細(xì)闡述一下。
Stuart :我也可以接受,但實(shí)際上我接不接受并不影響這件事。我認(rèn)為真正具有影響的是推動(dòng)AGI的經(jīng)濟(jì)力量是什么,如果AGI價(jià)值15萬億美元——正如我估計(jì)的那樣,有點(diǎn)難說,人們知道你阻止不了這件事的發(fā)生。
Yann:首先,沒有所謂的AGI。我們可以談?wù)撊祟愃疁?zhǔn)的人工智能,但人類的愛(感知)、人類的智能是非常精確的(并不通用),所以我們根本不應(yīng)該談?wù)揂GI。我們應(yīng)該討論一下,我們可以觀察到的目前人工智能系統(tǒng)尚不具備的人類和動(dòng)物所擁有的智能類型。
而且,你知道,目前的人工智能系統(tǒng)還不具備,比如像你的貓或者你的狗那樣的能力。因此,我們要解決的問題是如何讓機(jī)器像人類和動(dòng)物一樣高效地學(xué)習(xí),這在很多應(yīng)用中都很有用。
這是未來,因?yàn)槲覀儗碛蠥I助手,你知道,我們和AI將在日常生活中交談來獲得幫助。
我們需要這個(gè)系統(tǒng)具有人類水平的智能。所以你知道,這就是為什么我們需要它,我們需要把它做好。
主持人:Daniela?
Daniela:我同意簡的看法,但讓我首先說,我認(rèn)為要說我們要阻止科學(xué)向一個(gè)方向或另一個(gè)方向發(fā)展是不可行的。所以我認(rèn)為新的知識(shí)必須繼續(xù)被探索出來。我們需要繼續(xù)突破知識(shí)的邊界。這是目前在這個(gè)領(lǐng)域工作最令人興奮的方面之一。
我們確實(shí)希望改進(jìn)我們的工具,我們確實(shí)希望開發(fā)出比我們現(xiàn)在擁有的模型更接近自然的更好的模型。我們希望盡可能詳細(xì)地了解自然。我相信可行的前進(jìn)之路是從自然界中更簡單的生物開始,逐步發(fā)展到更復(fù)雜的生物,比如人類。
Stuart:所以我想對(duì)一些事情提出異議。那就是,知道和行動(dòng)之間有一個(gè)重要的區(qū)別。對(duì)于人類來說,實(shí)際上,了解和懂得一件事情,并不都是好事情,這是有局限性的。如果地球上每個(gè)人都知道如何在他們的廚房里創(chuàng)造一種能夠消滅人類的有機(jī)體,是一個(gè)好主意嗎?這不是。所以我們接受它是有限制的,我們應(yīng)該知道懂得什么是一件好事。并且我們應(yīng)該考慮我們?cè)趯⒅R(shí)付諸實(shí)踐上同樣存在邊界。
我們應(yīng)該制造大到足以點(diǎn)燃整個(gè)地球大氣層的核武器嗎?我們可以做到。但大多數(shù)人會(huì)說,不,制造這樣的武器不是個(gè)好主意。好的,所以我們應(yīng)該如何運(yùn)用我們的知識(shí)是有限制的。
然后第三點(diǎn)是,構(gòu)建比我們不知道如何控制的人類更強(qiáng)大的系統(tǒng)(AI)是一個(gè)好主意嗎?
Daniela:好的,我必須回答你。我會(huì)說,每一項(xiàng)發(fā)明的技術(shù)都有積極和消極的一面。我們發(fā)明知識(shí),然后找到確保發(fā)明被用于好而非壞的方法。并且有這樣的控制機(jī)制,世界正在為人工智能開發(fā)機(jī)制。
關(guān)于你的觀點(diǎn),即我們是否擁有比人類更強(qiáng)大的機(jī)器。我們已經(jīng)在做了。我們已經(jīng)有了可以比你更能精確移動(dòng)的機(jī)器人。我們有機(jī)器人能舉起比你能舉的更重的東西。我們擁有的機(jī)器學(xué)習(xí)算法可以處理比我們更多的數(shù)據(jù),因此我們已經(jīng)擁有可以做比我們更多事情的機(jī)器。
Stuart:但這些機(jī)器顯然并不比人類更強(qiáng)大,就像大猩猩并不比人類更強(qiáng)大一樣,即使它們比我們強(qiáng)壯得多。馬也比我們強(qiáng)壯得多,速度也比我們快。但沒有人感受到馬的威脅。
Yann:我認(rèn)為所有這一切都有一個(gè)很大的謬論。首先,我們沒有一個(gè)具有人類智能水平的系統(tǒng)的藍(lán)圖。它不存在,相關(guān)研究也不存在,需要做科學(xué)研究。這就是它即將要做的事情,需要很長時(shí)間。
因此,如果我們今天談?wù)撊绾畏乐笰I系統(tǒng)接管世界,談?wù)撍奈kU(xiǎn)——不管它們是什么,這就好像我們?cè)?925年談?wù)撘越咏羲俅┰酱笪餮蟮奈kU(xiǎn)一樣,當(dāng)時(shí)渦輪噴氣發(fā)動(dòng)機(jī)還沒有發(fā)明。你知道,我們不知道如何使這些系統(tǒng)安全,因?yàn)槲覀冞€沒有發(fā)明它們。現(xiàn)在,一旦我們有了一個(gè)智能系統(tǒng)的藍(lán)圖,我們可能也會(huì)有一個(gè)可以控制的系統(tǒng)的藍(lán)圖,因?yàn)槲也幌嘈盼覀兛梢越ㄔ鞗]有內(nèi)部控制機(jī)制的智能系統(tǒng)。我們像人類進(jìn)化一樣,用特定的驅(qū)動(dòng)力構(gòu)建了我們。我們可以用相同的驅(qū)動(dòng)器制造機(jī)器。所以這是第一個(gè)謬論。
第二個(gè)謬論是,并不是因?yàn)橐粋€(gè)實(shí)體有智慧,它就想要主宰地位,或者它必然是危險(xiǎn)的。它可以解決問題。你可以告訴它,你可以為它設(shè)定目標(biāo),它就會(huì)實(shí)現(xiàn)這些目標(biāo)。系統(tǒng)會(huì)以某種方式想出自己的目標(biāo)并試圖接管人類的想法是荒謬的。
Connor:對(duì)我來說令人擔(dān)憂的是,AI的危險(xiǎn)不是來自任何不良的特質(zhì)、或者有一種可以從AI中移除的邪惡。而是,因?yàn)樗心芰Α⒁驗(yàn)樗鼜?qiáng)大——這就是它危險(xiǎn)的原因。一項(xiàng)技術(shù)之所以有用,也就是它之所以危險(xiǎn)。核反應(yīng)堆有用的原因是因?yàn)楹藦椇芪kU(xiǎn)。
幾十年和幾個(gè)世紀(jì)以來,隨著技術(shù)的進(jìn)步,這是同樣的邏輯,我們已經(jīng)獲得了越來越多的強(qiáng)大技術(shù),更多的能源,對(duì)我們環(huán)境的更多控制。這意味著,最好和最壞的事情可能是有意發(fā)生的,也可能是意外地與我們構(gòu)建的技術(shù)同步發(fā)展。
AI是一種特別強(qiáng)大的技術(shù),但它并不是唯一一個(gè)可以變得如此強(qiáng)大以至于即使是一次事故也是不可接受的技術(shù)。有些技術(shù)今天已經(jīng)存在或?qū)⒃谖磥砟硞€(gè)時(shí)候存在。讓我們不要現(xiàn)在爭論是十年還是兩次。我的孩子們將在50年后仍然活著,我希望他們?cè)谖覀冎罄^續(xù)生活下去。一次事故可能就是終點(diǎn)。
如果你擁有一項(xiàng)技術(shù),無論是AGI、未來核武器、生物武器還是其他東西,你都可以制造出強(qiáng)大的武器或系統(tǒng),以至于一次事故就意味著游戲結(jié)束。我們的文明并沒有建立在我們目前開發(fā)技術(shù)的方式上,以便能夠處理那些不會(huì)讓你重試的技術(shù)。這就是問題所在。如果我們?cè)僭囈淮?,如果我們可以一次又一次地嘗試,我們失敗了,有些東西爆炸了,你知道,也許會(huì)有幾個(gè)人死亡,但沒關(guān)系。是的,那么我同意簡和丹妮拉的觀點(diǎn),我認(rèn)為我們的科學(xué)家得到了這個(gè)。我認(rèn)為你的實(shí)驗(yàn)室會(huì)解決這個(gè)問題。我認(rèn)為這些人會(huì)解決它。但如果一個(gè)事故造成的危害太多了,我認(rèn)為這個(gè)問題會(huì)無法解決。
Yann:但是到了那個(gè)點(diǎn),到了Stuart和Connor剛剛提到的點(diǎn),你可以想象無限種情況,當(dāng)所有這些事情都變壞了。你可以用任何技術(shù)做到這一點(diǎn)。你可以用AI做到這一點(diǎn),顯然科幻小說中充滿了此類的情節(jié)。
你可以用渦輪噴氣發(fā)動(dòng)機(jī)做到這一點(diǎn),渦輪噴氣發(fā)動(dòng)機(jī)可能會(huì)爆炸,有很多很多方法來構(gòu)建這些系統(tǒng),這些方法將是危險(xiǎn)的,錯(cuò)誤的,會(huì)造成人類死亡等等。
但只要至少有一種方法可以讓我們控制它,那就是我們需要的技術(shù)。例如,過去在原型水平上開發(fā)的很多技術(shù),我們都決定不應(yīng)該真正,因?yàn)樗kU(xiǎn)或者不可控,例如核動(dòng)力汽車,人們?cè)?0年代就談?wù)撨^這個(gè)問題,它從未部署過。因此,如果技術(shù)真的很危險(xiǎn),社會(huì)上有機(jī)制可以阻止技術(shù)的部署,所以有辦法使AI安全。
Daniela:我實(shí)際上同意理解當(dāng)今技術(shù)的局限性并理解并著手開發(fā)解決方案非常重要,在某些情況下,我們可以得到開發(fā)的技術(shù)解決方案。
例如,我們一直在談?wù)摍C(jī)器學(xué)習(xí)中的偏見問題。我們實(shí)際上有技術(shù)解決方案,解決這個(gè)問題的技術(shù)解決方案,我們?cè)谡務(wù)撃P偷拇笮。覀冊(cè)谡務(wù)摽山忉屝?,科學(xué)界正在努力應(yīng)對(duì)當(dāng)今解決方案的挑戰(zhàn),同時(shí)也在尋求發(fā)明新的AI方法,具有其他類型屬性的機(jī)器學(xué)習(xí)的新方法。
事實(shí)上,在麻省理工學(xué)院,許多研究小組的真正目標(biāo)是突破界限,開發(fā)可部署在安全關(guān)鍵系統(tǒng)和邊緣設(shè)備上的解決方案。這非常重要,而且有非常出色的進(jìn)展,所以我非常看好在安全關(guān)鍵應(yīng)用中使用機(jī)器學(xué)習(xí)和人工智能。所以我同意斯圖爾特所說的一件事,但也同意年輕人分享的許多觀察。
主持人:你們中的幾個(gè)人獨(dú)立地說我們需要新的架構(gòu),新的技術(shù)解決方案。所以總結(jié)一下,如果你們中的一些人想要簡單地分享一些看法嗎?我們需要什么樣的新架構(gòu),才能更有前途,使其成為能力補(bǔ)充而不是取代我們的AI?
Yann:當(dāng)然,是的。我真的不能給你一個(gè)有效的例子,因?yàn)檫@是進(jìn)展中的工作,但這些是驅(qū)動(dòng)實(shí)現(xiàn)的目標(biāo)。在推理時(shí),他們必須滿足實(shí)現(xiàn)我們給他們的目標(biāo),同時(shí)也要滿足一堆保護(hù)原則。所以他們應(yīng)該計(jì)劃他們的答案,而不是僅僅一個(gè)字接一個(gè)地產(chǎn)生自回歸(楊立昆并不看好LLM可以產(chǎn)生AGI)。它們不能被越獄,除非你入侵它們。
因此,我認(rèn)為這將是一種比我們正在談?wù)摰漠?dāng)前類型要安全得多的架構(gòu)。這些系統(tǒng)將能夠計(jì)劃和推理,記住,也許是理解物理世界,做出目前做不到的各種事情。因此,未來的AI系統(tǒng)不會(huì)在我們目前擁有的藍(lán)圖上,并且它們將是可控的,因?yàn)樗鼘⑹悄繕?biāo)驅(qū)動(dòng)的。
Daniela:液體網(wǎng)絡(luò)是解釋大腦運(yùn)行的靈感,大腦是小的生物,它們是可證明的因果關(guān)系。它們緊湊,可解釋,并且可以部署在邊緣設(shè)備上。既然我們有這些偉大的特性,我們也有控制權(quán)。
我也很興奮能夠?qū)⑽覀冋陂_發(fā)的一些機(jī)器學(xué)習(xí)工具與控制理論工具聯(lián)系起來。例如,將機(jī)器學(xué)習(xí)與屏障網(wǎng)絡(luò)和控制屏障功能等工具相結(jié)合,以確保我們的機(jī)器學(xué)習(xí)系統(tǒng)的輸出是安全的。
Connor:我認(rèn)為最重要的實(shí)際技術(shù)是社會(huì)層面的技術(shù)。對(duì)于技術(shù)人員、技術(shù)書呆子來說,就像我們?cè)谶@個(gè)小組中的所有人一樣,試圖想出不涉及人類的解決方案是非常誘人的。但事實(shí)是世界很復(fù)雜。這既是一個(gè)政治問題,也是一個(gè)技術(shù)問題。如果我們忽視這個(gè)問題的技術(shù)和社會(huì)方面,我們將注定會(huì)失敗。因此,理解技術(shù)樂觀主義并不能取代人文主義是非常重要的。
主持人:太棒了,讓我們感謝你們精彩的小組激發(fā)了我們。我希望你也能從中得出結(jié)論,盡管他們并非在所有問題上都達(dá)成一致,但他們都同意我們想制作可以控制并補(bǔ)充我們的工具,而且他們都非常技術(shù)宅,擁有令人興奮的技術(shù)想法。感謝大家的參與!
參考鏈接:https://www.youtube.com/watch?v=Wb_kOiid-vc