75歲Hinton再次警告:AI可能會接管人類!
10月9日,Hinton面對《60分鐘》的采訪,再次表示了對人工智能可能會接管人類的擔(dān)憂。
但早在今年5月,「人工智能教父」Geoffrey Hinton為了能自由談?wù)撊斯ぶ悄艿娘L(fēng)險,宣布了從谷歌離職。
之后,Hinton在各種公開場合中都表達(dá)了對人工智能風(fēng)險的擔(dān)憂。
在一次采訪中,Hinton甚至表示:「我對自己的畢生工作,感到非常后悔」。
而在如火如荼的人工智能井噴之年,人們已經(jīng)難以停下沖鋒的步伐。
雖然在今年3月底,有上千名技術(shù)領(lǐng)袖簽署了呼吁暫停開發(fā)比GPT-4更強大的人工智能的聯(lián)名書。
但在9月24日的YC校友分享會上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。
與此同時,作為開源社區(qū)的領(lǐng)袖Meta,也在不斷開發(fā)新的大模型。在7月,發(fā)布了在各項性能都得到提升,水平接近ChatGPT的Llama 2。
隨著大模型性能的不斷提升,安全隱患和威脅的陰影始終如達(dá)摩克里斯之劍懸在人類頭頂。
有人認(rèn)為擔(dān)心人工智能的風(fēng)險還為之過早,如Meta的首席科學(xué)家、同樣是圖靈獎得主的Hinton的弟子Yann LeCun多次表示,人們夸大了人工智能的風(fēng)險。
但也有一些人堅持,「與生存相關(guān)的風(fēng)險,如何重視都是不為過的」。
Hinton便是其中之一。
Hinton:AI接管人類的可能性
在與《連線》的記者對話時,Hinton從以下幾個方面表達(dá)了對人工智能風(fēng)險的擔(dān)憂。
首先是人工智能的智能的不斷增長。
Hinton認(rèn)為,我們正在進(jìn)入這樣一個時代:人工智能正變得比人類更聰明,它們能夠根據(jù)自身經(jīng)驗和理解來做出決定。
雖然圖靈獎得主Bengio等用88頁論證了人工智能目前還不具備意識,但不論是Bengio還是Hinton,都認(rèn)為未來人工智能可能會發(fā)展出自我意識。
未來人工智能將會取代人類,成為地球上智商最高的存在。
決定模型智能的是學(xué)習(xí)的能力,Hinton解釋了人工智能的學(xué)習(xí)過程。
人工智能能夠進(jìn)行學(xué)習(xí),是因為人類設(shè)計了相應(yīng)算法,但模型因此產(chǎn)生的神經(jīng)網(wǎng)絡(luò)是復(fù)雜的,并不完全為人所知。
這一過程被Hinton比作設(shè)計進(jìn)化的原理,他承認(rèn)隨著人工智能對更復(fù)雜任務(wù)的處理,其內(nèi)部運作對于人類而言將會變得越來越神秘、且不可知。
此外,Hinton還表示了對人工智能系統(tǒng)會自己編寫代碼來修改自己的擔(dān)心,這可能會導(dǎo)致人類對人工智能失去控制。
除了人工智能的失控風(fēng)險,Hinton還討論了人工智能操縱人類的風(fēng)險,指出了在自主戰(zhàn)場機器人、假新聞和就業(yè)偏見等領(lǐng)域的潛在后果。
但比這些更糟糕的是,Hinton強調(diào)了圍繞人工智能的不確定性,以及在未知領(lǐng)域航行所面臨的挑戰(zhàn)。
「我們正在進(jìn)入一個非常不確定的時期,我們正在處理以前從未做過的事情。通常,當(dāng)你第一次處理一些完全新奇的事情時,你肯定會犯錯。但我們不能在這些事情上犯錯。」
但Hinton也肯定了人工智能做出的貢獻(xiàn)。
隨著人工智能在現(xiàn)實世界中各種落地應(yīng)用,在辦公、科學(xué)發(fā)現(xiàn)、醫(yī)療等方面都極大地提升了人類的效率。
Hinton特別強調(diào)了人工智能在醫(yī)療保健領(lǐng)域的巨大優(yōu)勢,尤其是醫(yī)學(xué)圖像識別和藥物設(shè)計等,任務(wù)谷歌DeepMind推出的Alpha Fold是一個絕佳的例證。
Hinton對人工智能在這一領(lǐng)域的積極影響表示樂觀。
對于人工智能的未來,Hinton雖然沒有預(yù)言人工智能一定會接管人類,但他承認(rèn)了這將是我們可能的未來。
因此,Hinton一直敦促面對人工智能發(fā)展的潛力,人類對自身的安全進(jìn)行必要的保護(hù)措施。
其他對人工智能風(fēng)險的擔(dān)憂
此前,紐約大學(xué)教授馬庫斯也表達(dá)了相同的擔(dān)憂。
「是人類快要滅亡了比較重要,還是編碼更快、跟機器人聊天更重要?」
馬庫斯認(rèn)為,雖然AGI還太遙遠(yuǎn),但LLM已經(jīng)很危險了,而最危險的是,現(xiàn)在AI已經(jīng)在給各種犯罪行為提供便利了。
「在這個時代,我們每天都要自問,我們究竟想要什么類型的AI,有的時候走慢一點未嘗不好,因為我們的每一小步都會對未來產(chǎn)生深遠(yuǎn)的影響?!?/span>
ChatGPT之父、OpenAI CEO Sam Altman也曾公開表示,超級智能AI的風(fēng)險可能會遠(yuǎn)遠(yuǎn)超出我們的預(yù)料。
在技術(shù)研究員Lex Fridman的播客中,Altman對高級人工智能的潛在危險發(fā)出了預(yù)警。
他表示自己最擔(dān)心的是,AI造成的虛假信息問題,以及經(jīng)濟(jì)上的沖擊,以及其他還沒出現(xiàn)的種種問題,這些危害可能遠(yuǎn)遠(yuǎn)超過了人類能應(yīng)對的程度。
他提出了這樣一種可能性:大語言模型可以影響、甚至是主宰社交媒體用戶的體驗和互動。
「打個比方,我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?」
Altman說,「我認(rèn)為,作為OpenAI,我們有責(zé)任為我們向世界推出的工具負(fù)責(zé)?!?/span>
「AI工具將給人類帶來巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補充道。「我們會把壞處降到最低,把好處最大化?!?/span>
雖然GPT-4模型很了不起,但認(rèn)識到人工智能的局限性并避免將其擬人化也很重要。
同樣地,對于「AI消滅人類」這個問題,比爾蓋茨也已經(jīng)憂心多年了。
很多年來,蓋茨一直表示,人工智能技術(shù)已經(jīng)變得過于強大,甚至可能引發(fā)戰(zhàn)爭或被用來制造武器。
他聲稱,不僅現(xiàn)實生活中的「007反派」可能利用它來操縱世界大國,而且人工智能本身也可能失控,對人類造成極大威脅。
在他看來,當(dāng)超級智能被開發(fā)出來,它的思考速度會遠(yuǎn)遠(yuǎn)趕超人類。
它能做到人腦所能做的一切,最可怕的是,它的記憶內(nèi)存大小和運行速度根本不受限。
這些被稱為「超級」AI的實體可能會設(shè)定自己的目標(biāo),不知道會干出什么事。
而公眾也開始發(fā)出自己的聲音。
面對大公司之間的大模型「軍備競賽」,Meta因為向公眾開放了Llama 2的模型權(quán)重而遭到了公民抗議。
公眾擔(dān)心Meta這項釋放模型權(quán)重的策略,可以讓任何人都能依照自身利益修改模型。
同時,因為權(quán)重的開放,意味著其他人無法召回這些的模型。這對利用大模型來實施網(wǎng)絡(luò)犯罪幾乎提供了無限制的生長土壤。
現(xiàn)在,對于全人類來說,似乎「to be,or not to be」已成為了迫在眉睫、不得不面對的問題。