圖靈獎(jiǎng)得主吵起來(lái)了,LeCun:Bengio、Hinton等的AI滅絕論是荒謬的
關(guān)于 AI 風(fēng)險(xiǎn)的問題,各路大佬們也是意見不統(tǒng)一。有人帶頭簽署聯(lián)名信,呼吁 AI 實(shí)驗(yàn)室應(yīng)立即暫停研究,深度學(xué)習(xí)三巨頭 Geoffrey Hinton、Yoshua Bengio 等都支持這一觀點(diǎn)。
就在近幾日,Bengio、Hinton 等再發(fā)聯(lián)名信《在快速發(fā)展的時(shí)代管理人工智能風(fēng)險(xiǎn)》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施,將安全和道德實(shí)踐納入重點(diǎn),呼吁各國(guó)政府應(yīng)該采取行動(dòng),管理 AI 帶來(lái)的風(fēng)險(xiǎn)。
文中提到了一些緊急治理措施,例如,讓國(guó)家機(jī)構(gòu)也參與進(jìn)來(lái),從而防止人們對(duì) AI 的濫用。為了實(shí)現(xiàn)有效的監(jiān)管,政府需要全面了解人工智能的發(fā)展。監(jiān)管機(jī)構(gòu)應(yīng)采取一系列措施,如模型注冊(cè)、對(duì)舉報(bào)人進(jìn)行有效保護(hù)以及對(duì)模型開發(fā)和超級(jí)計(jì)算機(jī)使用的監(jiān)控等。監(jiān)管機(jī)構(gòu)還需要在部署之前訪問先進(jìn)的人工智能系統(tǒng),以評(píng)估其危險(xiǎn)功能。
不僅如此,時(shí)間再往前一點(diǎn),今年五月,美國(guó)非營(yíng)利組織人工智能安全中心發(fā)表了一份聲明,警告人工智能應(yīng)被視為與流行病一樣存在滅絕人類的風(fēng)險(xiǎn),支持該聲明的人同樣包括 Hinton、Bengio 等人。
今年 5 月,為了暢所欲言地談?wù)撊斯ぶ悄軒?lái)的風(fēng)險(xiǎn),Hinton 還辭去了在谷歌的工作。在一次紐約時(shí)報(bào)的采訪中,他表示:「大多數(shù)人認(rèn)為這(AI 危害)還很遙遠(yuǎn)。我過去也認(rèn)為這還很遙遠(yuǎn),可能是 30 到 50 年甚至更長(zhǎng)的時(shí)間。但顯然,我現(xiàn)在不這么想了?!?/span>
可以預(yù)見,在 Hinton 等 AI 大佬眼里,管理 AI 帶來(lái)的風(fēng)險(xiǎn)是一項(xiàng)非常緊急的事情。
然而,作為深度學(xué)習(xí)三巨頭之一的 Yann LeCun,對(duì) AI 發(fā)展持有非常樂觀的態(tài)度。對(duì)于簽署關(guān)于 AI 風(fēng)險(xiǎn)的聯(lián)名信,他基本上都是持反對(duì)態(tài)度,認(rèn)為人工智能的發(fā)展遠(yuǎn)未構(gòu)成對(duì)人類的威脅。
剛剛, LeCun 在與 X 用戶的交流中,對(duì)網(wǎng)友的一些關(guān)于 AI 風(fēng)險(xiǎn)的問題給出了回答。
該網(wǎng)友是針對(duì) LeCun 對(duì)文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法進(jìn)行提問的,文章認(rèn)為 Hinton、Bengio 等人發(fā)表聯(lián)名信的行為使人們轉(zhuǎn)變了對(duì) AI 的看法,從一開始將 AI 視為輔助助手,轉(zhuǎn)變?yōu)閷?AI 視為潛在威脅。文章接著表示,近幾個(gè)月來(lái),觀察家們?cè)谟?guó)發(fā)現(xiàn)了越來(lái)越多的關(guān)于 AI 會(huì)造成世界末日的氛圍。今年三月,英國(guó)政府公布了一份白皮書,承諾不會(huì)扼殺 AI 領(lǐng)域的創(chuàng)新。然而僅僅兩個(gè)月后,英國(guó)就開始談?wù)搶?duì) AI 設(shè)置護(hù)欄,并敦促美國(guó)接受其全球人工智能規(guī)則計(jì)劃。
文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
LeCun 對(duì)這篇文章的反應(yīng)是這樣的,他不希望英國(guó)對(duì) AI 存在宿命論風(fēng)險(xiǎn)的擔(dān)憂傳播給其他國(guó)家。
之后,就有了我們前面提到的 LeCun 與 X 用戶的交流,以下是 LeCun 全部的回答:
「Altman、Hassabis 以及 Amodei 正在進(jìn)行大規(guī)模的企業(yè)游說。他們正嘗試對(duì) AI 產(chǎn)業(yè)進(jìn)行監(jiān)管。而你、Geoff,還有 Yoshua 正在給那些游說禁止開放 AI 研究的人提供『彈藥』。
如果你們的恐懼宣傳活動(dòng)取得成功,將不可避免地造成你我都認(rèn)為是災(zāi)難的結(jié)果:少數(shù)公司將控制 AI。
絕大多數(shù)學(xué)術(shù)同行都非常支持開放式 AI 研發(fā)。很少有人相信你所鼓吹的末日?qǐng)鼍?。你、Yoshua、Geoff 和 Stuart 是唯一的例外。
和許多人一樣,我非常支持開放式 AI 平臺(tái),因?yàn)槲蚁嘈鸥鞣N力量的結(jié)合:人們的創(chuàng)造力、民主、市場(chǎng)力量和產(chǎn)品法規(guī)。我也知道,生產(chǎn)安全且受我們控制的 AI 系統(tǒng)是可能的。我已經(jīng)為此提出了具體建議。這一切都將促使人們做正確的事。
你寫得好像 AI 是憑空產(chǎn)生的,它是我們無(wú)法控制的自然現(xiàn)象。但事實(shí)并非如此。它之所以取得進(jìn)步,是因?yàn)槟阄宜J(rèn)識(shí)的每一個(gè)人。我們和他們都有能力打造『正確的事物』。要求對(duì)研發(fā)(相對(duì)于產(chǎn)品部署)進(jìn)行監(jiān)管,其實(shí)暗含了這樣的假設(shè):這些人和他們所服務(wù)的組織都是無(wú)能、魯莽、自我毀滅或者邪惡的。但事實(shí)并非如此。
我已經(jīng)提出了很多論據(jù)來(lái)證明你所害怕的末日?qǐng)鼍笆腔闹嚨?。在此我就不再贅述了。但主要的一點(diǎn)是,如果強(qiáng)大的 AI 系統(tǒng)是由目標(biāo)(包括護(hù)欄)驅(qū)動(dòng)的,那么它們就會(huì)是安全可控的,因?yàn)樗麄冊(cè)O(shè)定了這些護(hù)欄和目標(biāo)。(目前的自回歸 LLM 并不是由目標(biāo)驅(qū)動(dòng)的,所以我們不要從自回歸 LLM 的弱點(diǎn)來(lái)推斷)。
關(guān)于開源這件事,你的活動(dòng)所產(chǎn)生的效果將與你所追求的完全相反。在未來(lái),AI 系統(tǒng)將成為人類所有知識(shí)和文化的寶庫(kù),我們需要的是開源和免費(fèi)的平臺(tái),以便每個(gè)人都能為之做出貢獻(xiàn)。開放是讓 AI 平臺(tái)反映人類全部知識(shí)和文化的唯一途徑。這就要求對(duì)這些平臺(tái)的貢獻(xiàn)是眾包的,類似于維基百科。除非平臺(tái)是開放的,否則這樣做是行不通的。
如果開放源代碼的 AI 平臺(tái)被監(jiān)管,那么另一種情況將一定發(fā)生,那就是少數(shù)公司將控制 AI 平臺(tái),進(jìn)而控制人們的全部數(shù)字依賴。這對(duì)民主意味著什么?這對(duì)文化多樣性意味著什么?這是讓我徹夜難眠的原因。」
在 LeCun 長(zhǎng)推文的下方,也有許多人「聲援」他的觀點(diǎn)。
蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)與運(yùn)籌學(xué)系教授 Irina Rish,也是 Mila - Quebec AI 研究所的核心成員。她表示或許支持開源 AI 的研究人員們不應(yīng)該再沉默了,應(yīng)該引領(lǐng)新興 AI 的發(fā)展。
e/acc創(chuàng)始人 Beff Jezos 也在評(píng)論區(qū)中表示,這樣的評(píng)論是重要的,也是人們所需要的。
網(wǎng)友表示,一開始,討論安全問題可以豐富大家對(duì)未來(lái)科技的想象,但是聳人聽聞的科幻小說不應(yīng)當(dāng)導(dǎo)致壟斷政策的出現(xiàn)。
播客主持人 Lex Fridman 對(duì)這場(chǎng)辯論有更多的期待。
關(guān)于 AI 風(fēng)險(xiǎn)的問題討論也將影響著 AI 的未來(lái)發(fā)展。當(dāng)一個(gè)觀點(diǎn)搶占風(fēng)頭時(shí),人們會(huì)盲目跟從。只有兩方能夠不斷地進(jìn)行理性探討,才能夠真正地看清 AI 的「真面目」。