自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

75歲Hinton再次警告:AI可能會接管人類!

人工智能 新聞
最近,Hinton在采訪中談?wù)摿巳斯ぶ悄艽嬖诘母鞣N安全隱患,擔(dān)憂人類將會被其接管。

10月9日,Hinton面對《60分鐘》的采訪,再次表示了對人工智能可能會接管人類的擔(dān)憂。

但早在今年5月,「人工智能教父」Geoffrey Hinton為了能自由談?wù)撊斯ぶ悄艿娘L(fēng)險,宣布了從谷歌離職。

之后,Hinton在各種公開場合中都表達(dá)了對人工智能風(fēng)險的擔(dān)憂。

在一次采訪中,Hinton甚至表示:「我對自己的畢生工作,感到非常后悔」。

而在如火如荼的人工智能井噴之年,人們已經(jīng)難以停下沖鋒的步伐。

雖然在今年3月底,有上千名技術(shù)領(lǐng)袖簽署了呼吁暫停開發(fā)比GPT-4更強大的人工智能的聯(lián)名書。

但在9月24日的YC校友分享會上,Altman透露了OpenAI的下一代大模型GPT-5和GPT-6的消息。

與此同時,作為開源社區(qū)的領(lǐng)袖Meta,也在不斷開發(fā)新的大模型。在7月,發(fā)布了在各項性能都得到提升,水平接近ChatGPT的Llama 2。

隨著大模型性能的不斷提升,安全隱患和威脅的陰影始終如達(dá)摩克里斯之劍懸在人類頭頂。

有人認(rèn)為擔(dān)心人工智能的風(fēng)險還為之過早,如Meta的首席科學(xué)家、同樣是圖靈獎得主的Hinton的弟子Yann LeCun多次表示,人們夸大了人工智能的風(fēng)險。

但也有一些人堅持,「與生存相關(guān)的風(fēng)險,如何重視都是不為過的」。

Hinton便是其中之一。

Hinton:AI接管人類的可能性

在與《連線》的記者對話時,Hinton從以下幾個方面表達(dá)了對人工智能風(fēng)險的擔(dān)憂。

首先是人工智能的智能的不斷增長。

Hinton認(rèn)為,我們正在進(jìn)入這樣一個時代:人工智能正變得比人類更聰明,它們能夠根據(jù)自身經(jīng)驗和理解來做出決定。

雖然圖靈獎得主Bengio等用88頁論證了人工智能目前還不具備意識,但不論是Bengio還是Hinton,都認(rèn)為未來人工智能可能會發(fā)展出自我意識。

未來人工智能將會取代人類,成為地球上智商最高的存在。

決定模型智能的是學(xué)習(xí)的能力,Hinton解釋了人工智能的學(xué)習(xí)過程。

人工智能能夠進(jìn)行學(xué)習(xí),是因為人類設(shè)計了相應(yīng)算法,但模型因此產(chǎn)生的神經(jīng)網(wǎng)絡(luò)是復(fù)雜的,并不完全為人所知。

這一過程被Hinton比作設(shè)計進(jìn)化的原理,他承認(rèn)隨著人工智能對更復(fù)雜任務(wù)的處理,其內(nèi)部運作對于人類而言將會變得越來越神秘、且不可知。

此外,Hinton還表示了對人工智能系統(tǒng)會自己編寫代碼來修改自己的擔(dān)心,這可能會導(dǎo)致人類對人工智能失去控制。

除了人工智能的失控風(fēng)險,Hinton還討論了人工智能操縱人類的風(fēng)險,指出了在自主戰(zhàn)場機器人、假新聞和就業(yè)偏見等領(lǐng)域的潛在后果。

但比這些更糟糕的是,Hinton強調(diào)了圍繞人工智能的不確定性,以及在未知領(lǐng)域航行所面臨的挑戰(zhàn)。

「我們正在進(jìn)入一個非常不確定的時期,我們正在處理以前從未做過的事情。通常,當(dāng)你第一次處理一些完全新奇的事情時,你肯定會犯錯。但我們不能在這些事情上犯錯。」

但Hinton也肯定了人工智能做出的貢獻(xiàn)。

隨著人工智能在現(xiàn)實世界中各種落地應(yīng)用,在辦公、科學(xué)發(fā)現(xiàn)、醫(yī)療等方面都極大地提升了人類的效率。

Hinton特別強調(diào)了人工智能在醫(yī)療保健領(lǐng)域的巨大優(yōu)勢,尤其是醫(yī)學(xué)圖像識別和藥物設(shè)計等,任務(wù)谷歌DeepMind推出的Alpha Fold是一個絕佳的例證。

Hinton對人工智能在這一領(lǐng)域的積極影響表示樂觀。

對于人工智能的未來,Hinton雖然沒有預(yù)言人工智能一定會接管人類,但他承認(rèn)了這將是我們可能的未來。

因此,Hinton一直敦促面對人工智能發(fā)展的潛力,人類對自身的安全進(jìn)行必要的保護(hù)措施。

其他對人工智能風(fēng)險的擔(dān)憂

此前,紐約大學(xué)教授馬庫斯也表達(dá)了相同的擔(dān)憂。

「是人類快要滅亡了比較重要,還是編碼更快、跟機器人聊天更重要?」

馬庫斯認(rèn)為,雖然AGI還太遙遠(yuǎn),但LLM已經(jīng)很危險了,而最危險的是,現(xiàn)在AI已經(jīng)在給各種犯罪行為提供便利了。

「在這個時代,我們每天都要自問,我們究竟想要什么類型的AI,有的時候走慢一點未嘗不好,因為我們的每一小步都會對未來產(chǎn)生深遠(yuǎn)的影響?!?/span>

ChatGPT之父、OpenAI CEO Sam Altman也曾公開表示,超級智能AI的風(fēng)險可能會遠(yuǎn)遠(yuǎn)超出我們的預(yù)料。

在技術(shù)研究員Lex Fridman的播客中,Altman對高級人工智能的潛在危險發(fā)出了預(yù)警。

他表示自己最擔(dān)心的是,AI造成的虛假信息問題,以及經(jīng)濟(jì)上的沖擊,以及其他還沒出現(xiàn)的種種問題,這些危害可能遠(yuǎn)遠(yuǎn)超過了人類能應(yīng)對的程度。

他提出了這樣一種可能性:大語言模型可以影響、甚至是主宰社交媒體用戶的體驗和互動。

「打個比方,我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?」

Altman說,「我認(rèn)為,作為OpenAI,我們有責(zé)任為我們向世界推出的工具負(fù)責(zé)?!?/span>

「AI工具將給人類帶來巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補充道。「我們會把壞處降到最低,把好處最大化?!?/span>

雖然GPT-4模型很了不起,但認(rèn)識到人工智能的局限性并避免將其擬人化也很重要。

同樣地,對于「AI消滅人類」這個問題,比爾蓋茨也已經(jīng)憂心多年了。

很多年來,蓋茨一直表示,人工智能技術(shù)已經(jīng)變得過于強大,甚至可能引發(fā)戰(zhàn)爭或被用來制造武器。

他聲稱,不僅現(xiàn)實生活中的「007反派」可能利用它來操縱世界大國,而且人工智能本身也可能失控,對人類造成極大威脅。

在他看來,當(dāng)超級智能被開發(fā)出來,它的思考速度會遠(yuǎn)遠(yuǎn)趕超人類。

它能做到人腦所能做的一切,最可怕的是,它的記憶內(nèi)存大小和運行速度根本不受限。

這些被稱為「超級」AI的實體可能會設(shè)定自己的目標(biāo),不知道會干出什么事。

而公眾也開始發(fā)出自己的聲音。

面對大公司之間的大模型「軍備競賽」,Meta因為向公眾開放了Llama 2的模型權(quán)重而遭到了公民抗議。

公眾擔(dān)心Meta這項釋放模型權(quán)重的策略,可以讓任何人都能依照自身利益修改模型。

同時,因為權(quán)重的開放,意味著其他人無法召回這些的模型。這對利用大模型來實施網(wǎng)絡(luò)犯罪幾乎提供了無限制的生長土壤。

現(xiàn)在,對于全人類來說,似乎「to be,or not to be」已成為了迫在眉睫、不得不面對的問題。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-10-10 14:46:13

AI人工智能

2023-05-10 15:10:00

人工智能工作

2024-10-23 11:59:33

2023-05-04 10:05:30

離職谷歌

2023-05-31 09:48:01

開源AI

2021-02-22 10:01:16

人工智能黑客網(wǎng)絡(luò)安全

2024-02-26 00:50:00

數(shù)據(jù)AI

2024-10-25 13:30:00

2018-09-03 15:20:29

2022-06-12 15:58:47

AI人工智能

2020-10-04 13:24:12

人工智能機器人技術(shù)

2020-03-09 10:10:02

AI 數(shù)據(jù)人工智能

2024-10-28 08:46:00

2025-01-15 13:42:17

2018-11-07 10:03:37

2022-03-21 20:54:31

網(wǎng)絡(luò)攻擊通信網(wǎng)絡(luò)

2020-07-06 07:48:16

MySQL細(xì)節(jié)SQL

2019-07-01 09:10:00

前端開發(fā)技術(shù)

2024-04-24 08:45:59

人形機器人Optimus人工智能

2018-07-10 11:05:18

開發(fā)者技能命令
點贊
收藏

51CTO技術(shù)棧公眾號