GPT-5停不停?Bengio痛心跳出呼吁,LeCun怒斥AI末日論者
呼吁暫停比GPT-4更強(qiáng)AI訓(xùn)練的公開(kāi)信,把超強(qiáng)AI的種種爭(zhēng)議,更加激烈地推到了公開(kāi)的臺(tái)面上。
這幾日,后續(xù)激辯不斷,幾方立場(chǎng)愈發(fā)兩極分化。
而公開(kāi)信的簽名人數(shù),也從最初的1000出頭,猛增到了近1.6萬(wàn)。
面對(duì)接踵而至的指責(zé)和質(zhì)疑的聲浪,OpenAI匆忙在凌晨發(fā)文回應(yīng):我們會(huì)堅(jiān)決保障AI安全,絕不「偷工減料」!
圖靈三巨頭之一的Bengio,昨天專(zhuān)門(mén)在自己的博客上寫(xiě)了一篇長(zhǎng)文,解釋自己為什么簽名贊成暫停超強(qiáng)AI研發(fā)。
而另一巨頭LeCun一再表示,這種暫停根本就沒(méi)有必要,而且與AI末日論者辯論真的毫無(wú)意義。
在與眾網(wǎng)友舌戰(zhàn)多日后,他將于明天和吳恩達(dá)親自出鏡,向大眾公開(kāi)解釋為什么他們不贊同暫停訓(xùn)練超強(qiáng)AI 6個(gè)月。
LeCun:與AI末日論者辯論毫無(wú)意義
今日,LeCun發(fā)推再次強(qiáng)調(diào)自己的立場(chǎng):人類(lèi)需要機(jī)器智能。
「歷史一再表明,智能越多,社會(huì)和人類(lèi)的福祉就會(huì)越多:我們會(huì)擁有更好的技能、讀寫(xiě)能力、教育、創(chuàng)造力、文化、溝通和思想的自由交流。」
「人類(lèi)和機(jī)器的智能是進(jìn)步的動(dòng)力?!?/span>
「機(jī)器智能是增強(qiáng)人類(lèi)智能的一種方式,就像機(jī)械工具增強(qiáng)人類(lèi)體能一樣?!?/span>
在他看來(lái),擔(dān)心AI會(huì)滅絕人類(lèi),這種想法非常荒謬。
?「人們對(duì)AI風(fēng)險(xiǎn)過(guò)度擔(dān)憂(yōu)的唯一原因,就是這個(gè)神話(huà):當(dāng)你打開(kāi)一個(gè)超級(jí)智能系統(tǒng)的那一刻,人類(lèi)就注定要滅亡。這是荒謬的愚蠢,基于對(duì)AI運(yùn)作方式徹底的誤解?!?/span>
而且,今天關(guān)于AI安全的討論,跟1890年關(guān)于客機(jī)安全的討論一樣,全是推測(cè)性的。
「在我們擁有可靠達(dá)到人類(lèi)智能水平的AI系統(tǒng)的基本設(shè)計(jì)和演示之前,關(guān)于它們的風(fēng)險(xiǎn)和安全機(jī)制的爭(zhēng)論還為時(shí)過(guò)早?!?/span>
有網(wǎng)友在評(píng)論區(qū)中問(wèn)他,Hinton的訪談你聽(tīng)了嗎?
LeCun表示:我和Hinton都是37年的朋友了,我們?cè)诤芏嗍虑樯隙紱](méi)有分歧。
他說(shuō)AI接管「并非不可想象」,我不反對(duì)。但我相信,這種事情的概率極低,也很容易預(yù)防。
然后,LeCun給網(wǎng)友們分享了自己在幾年前與Bengio、Russell、Zador等大佬辯論的帖子,告訴大家,這才叫有意義的辯論。
但是,與極端的AI末日論者辯論AI倫理和安全,就像與神創(chuàng)論者辯論進(jìn)化論一樣,毫無(wú)意義。
有網(wǎng)友感謝LeCun分享這場(chǎng)辯論,但是強(qiáng)調(diào)有些人就是不相信以利潤(rùn)為導(dǎo)向的公司會(huì)將人類(lèi)和地球的安全置于利潤(rùn)之上,把他們稱(chēng)為AI末日預(yù)言者,是武斷和不公平的。
而LeCun轉(zhuǎn)發(fā)了這樣一篇論文。
他評(píng)論道:「由于擔(dān)心動(dòng)蕩,奧斯曼帝國(guó)限制了印刷書(shū)籍的傳播。因此,它錯(cuò)過(guò)了啟蒙運(yùn)動(dòng),失去了在科學(xué)技術(shù)上的主導(dǎo)地位,并最終失去了經(jīng)濟(jì)和軍事上的影響力?!?/span>
在他看來(lái),阻止AI替代我們的高技能工作崗位,也是如此。
Bengio:需要按下暫停鍵
另外,簽署公開(kāi)信的圖靈三巨頭之一Yoshua Bengio在沉默幾天后,首次解釋了自己加入FLI呼吁的看法:
一年前我可能不會(huì)簽署這樣一封信。正是因?yàn)槿斯ぶ悄馨l(fā)展出現(xiàn)了意想不到的加速,因此我們需要退一步。并且我對(duì)這些問(wèn)題的看法已經(jīng)改變了。
就此,Bengio在自己的網(wǎng)站上發(fā)表了一篇長(zhǎng)文,具體解釋了簽署公開(kāi)信的原因——技術(shù)進(jìn)步需要放緩,這樣才能確保安全、保護(hù)集體的福祉。
Bengio認(rèn)為我們已經(jīng)越過(guò)了一個(gè)關(guān)鍵的門(mén)檻:機(jī)器現(xiàn)在可以和我們對(duì)話(huà),甚至假裝成人類(lèi)。
而且,自從ChatGPT發(fā)布以來(lái),大家發(fā)現(xiàn)不那么謹(jǐn)慎守規(guī)矩的玩家會(huì)有競(jìng)爭(zhēng)優(yōu)勢(shì),如果是這樣的話(huà),那么通過(guò)降低謹(jǐn)慎和道德監(jiān)督的水平,就可以更容易出頭。
面對(duì)更加激烈的商業(yè)競(jìng)爭(zhēng),OpenAI也可能會(huì)急于開(kāi)發(fā)這些巨大的人工智能系統(tǒng),把他們?cè)谶^(guò)去十年的人工智能研究中養(yǎng)成的透明和開(kāi)放科學(xué)的良好習(xí)慣拋在腦后。
Bengio表示,簽署這封公開(kāi)信可以提醒學(xué)界和工業(yè)界:我們必須花時(shí)間更好地了解這些系統(tǒng),并在國(guó)家和國(guó)際層面制定必要的框架,來(lái)增加對(duì)公眾的保護(hù)。
即使簽署這封公開(kāi)信造成的影響可能沒(méi)有那么大,但是起碼會(huì)掀起一場(chǎng)全社會(huì)的討論。我們將不得不在未來(lái)幾年做出集體選擇,包括我們想用我們正在開(kāi)發(fā)的強(qiáng)大工具做什么。
從中短期風(fēng)險(xiǎn)來(lái)看,可能是出于政治目的操縱公眾輿論,特別是傳播虛假信息,這很容易預(yù)測(cè);而長(zhǎng)期風(fēng)險(xiǎn)就是偏離程序員所設(shè)定的目標(biāo),對(duì)人類(lèi)造成傷害,這種風(fēng)險(xiǎn)很難預(yù)測(cè)。
但是這封公開(kāi)信并不是要叫停所有的AI研究,也并不是說(shuō)GPT-4將成為自主的AI并威脅到人類(lèi)。相反,危險(xiǎn)的是懷有不良意圖的人類(lèi)或根本不知道其行為后果的人類(lèi),在未來(lái)幾年內(nèi)可能利用這些工具危及人類(lèi)的未來(lái)。
現(xiàn)在,我們需要規(guī)范這些系統(tǒng),提高人工智能系統(tǒng)的透明度和監(jiān)督,保護(hù)社會(huì)。風(fēng)險(xiǎn)和不確定性已經(jīng)如此嚴(yán)重,因此我們的治理機(jī)制也要加速發(fā)展。
社會(huì)需要時(shí)間來(lái)適應(yīng)變化,法律需要時(shí)間來(lái)通過(guò),監(jiān)管框架需要時(shí)間來(lái)落實(shí)。Bengio認(rèn)為迅速提高意識(shí),把這個(gè)問(wèn)題放在更多的場(chǎng)合去進(jìn)行更多的公眾辯論是很重要的。
不過(guò),從根本上來(lái)說(shuō),Bengio對(duì)技術(shù)是樂(lè)觀的,他認(rèn)為技術(shù)將能夠幫助我們克服人類(lèi)面臨的巨大挑戰(zhàn)。然而,為了面對(duì)這些挑戰(zhàn),現(xiàn)在需要的是去思考如何調(diào)整我們的社會(huì),甚至完全重塑它們。
「我們應(yīng)該放棄嗎?當(dāng)然不是。減少對(duì)未來(lái)的損害,我們總是有辦法做得更好,在正確的方向上的每一步,都會(huì)有所裨益?!?/span>
對(duì)此,紐約大學(xué)馬庫(kù)斯也表示了支持,盡管兩人之前有些意見(jiàn)相左。
馬斯克:這是個(gè)電車(chē)難題
另一邊,作為公開(kāi)信支持者的馬斯克表示,你們這些反對(duì)暫停的人就屬于下面這種人:
「另一條路太繞,會(huì)減慢AI的發(fā)展,不如還是直接碾過(guò)去吧。」
而有網(wǎng)友指出了「華點(diǎn)」—— 「如果你沒(méi)有將強(qiáng)大的AI裝到每一輛特斯拉中,我會(huì)更相信你的擔(dān)憂(yōu)?!?/span>
「為什么過(guò)度監(jiān)管某些AI模型,而不是實(shí)際的應(yīng)用程序呢?語(yǔ)言模型無(wú)法說(shuō)出或選擇它們『想要』的內(nèi)容,就像特斯拉的FSD系統(tǒng)不能自己決定開(kāi)到哪里?!?/span>
LeCun轉(zhuǎn)發(fā)了該網(wǎng)友的推文,表示同意:「沒(méi)錯(cuò),應(yīng)該去規(guī)范應(yīng)用,而不是研發(fā)?!?/span>
OpenAI急忙澄清
眼看AI安全已經(jīng)成為眾矢之的,OpenAI急忙出面,表示自己也很重視AI安全。
在昨天發(fā)布的「Our approach to AI safety」的長(zhǎng)文中,OpenAI主要探討了安全地構(gòu)建、部署和使用人工智能系統(tǒng)的方法。
OpenAI表示,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受?chē)?yán)格的安全評(píng)估。
GPT-4在發(fā)布之前,對(duì)其進(jìn)行了嚴(yán)格的測(cè)試,內(nèi)部員工耗時(shí)6個(gè)月去確保發(fā)布前讓模型更加安全和一致。
并且,還讓外部專(zhuān)家參與反饋,利用人類(lèi)反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)改善模型的行為。
另外,文中還列出了其他確保AI安全的方法:
- 從真實(shí)世界的使用中學(xué)習(xí),以改進(jìn)保障措施
- 保護(hù)兒童
- 尊重隱私
- 提高事實(shí)的準(zhǔn)確性
最后,OpenAI提出了應(yīng)該「繼續(xù)研究和參與」。這一點(diǎn)可以說(shuō)是對(duì)近來(lái)呼吁暫停超強(qiáng)AI研發(fā)的正面回應(yīng)。
我們認(rèn)為,解決人工智能安全問(wèn)題的實(shí)用方法是投入更多的時(shí)間和資源來(lái)研究有效的緩解措施和調(diào)整技術(shù),并針對(duì)現(xiàn)實(shí)世界的濫用進(jìn)行測(cè)試。
暫停六個(gè)月,時(shí)間夠嗎?
根據(jù)一項(xiàng)調(diào)查,69%的美國(guó)成年人強(qiáng)烈支持或在一定程度上支持暫停開(kāi)發(fā)六個(gè)月,但也有人認(rèn)為這似乎只是徒勞。
而關(guān)心AI會(huì)毀滅人類(lèi)這個(gè)話(huà)題的人,和不關(guān)心的人,大約各占一半。