霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!
著名科學(xué)家霍金,被譽(yù)為“宇宙之王”,他認(rèn)為:人類迄今為止最為深刻的影響就是人工智能的崛起,對(duì)于人工智能,他有以下十點(diǎn)深刻的思考:
01
在我的一生中,我見(jiàn)證了很多社會(huì)深刻的變化。其中最深刻,同時(shí)也是對(duì)人類影響與日俱增的變化就是人工智能的崛起。人工智能可能是人類文明史上最偉大的事件,它要么是人類歷史上最好的事,要么是最糟的。如果我們不能學(xué)會(huì)如何避免風(fēng)險(xiǎn),那么我們會(huì)把自己置于絕境。
如果有人設(shè)計(jì)計(jì)算機(jī)病毒,那么就有人設(shè)計(jì)不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。
人工智能的真正風(fēng)險(xiǎn)不是它的惡意,而是它的能力。一個(gè)超智能的人工智能在完成目標(biāo)方面非常出色,如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會(huì)陷入困境。”
02
人工智能對(duì)人類的影響,可以從短期、長(zhǎng)期兩方面來(lái)分別討論。
短期擔(dān)憂——智能自主武器、隱私
人工智能的全方位發(fā)展可能招致人類的滅亡。比如最大化使用智能性自主武器。
目前,世界上九個(gè)核大國(guó)可以控制大約一萬(wàn)四千個(gè)核武器,它們中的任何一個(gè)國(guó)家都可以將城市夷為平地,放射性廢物會(huì)大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會(huì)導(dǎo)致全球的小冰河期。
這一結(jié)果使全球糧食體系崩塌,末日般動(dòng)蕩,很可能導(dǎo)致大部分人死亡。我們作為科學(xué)家,對(duì)核武器承擔(dān)著特殊的責(zé)任。正是科學(xué)家發(fā)明了核武器,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。
除此之外就是隱私的擔(dān)憂。由于人工智能逐漸開(kāi)始解讀大量監(jiān)控?cái)?shù)據(jù),這些都會(huì)被機(jī)器人洞察的一覽無(wú)余。
03
長(zhǎng)期擔(dān)憂——人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn)
人工智能遵循的一個(gè)邏輯是,“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”。這一天很快會(huì)到來(lái)。
未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志。
我們無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。但事實(shí)就是:聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。
人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代。這將給我們的經(jīng)濟(jì)帶來(lái)極大的破壞。
04
在過(guò)去二百年中,人口增長(zhǎng)率是指數(shù)級(jí)的,目前這一數(shù)值約為1.9%。 這聽(tīng)起來(lái)可能不是很多,但它意味著,每四十年世界人口就會(huì)翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時(shí)膨脹了四倍。
這樣的指數(shù)增長(zhǎng)不能持續(xù)到下個(gè)千年。到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。
我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。人類作為獨(dú)立的物種,已經(jīng)存在了大約二百萬(wàn)年。我們的文明始于約一萬(wàn)年前,其發(fā)展一直在穩(wěn)步加速。如果人類想要延續(xù)下一個(gè)一百萬(wàn)年,我們就必須大膽前行,涉足無(wú)前人所及之處!
05
在某種程度上,今天的情況就如同1492年前的歐洲。當(dāng)時(shí)的人們很可能堅(jiān)信,哥倫布的探險(xiǎn)注定是徒勞無(wú)功。 然而,新世界的發(fā)現(xiàn),對(duì)舊世界帶來(lái)了深遠(yuǎn)的影響。對(duì)于那些被剝奪權(quán)利地位、走投無(wú)路的人來(lái)說(shuō),新世界成為了他們的烏托邦。
人類向太空的拓展,甚至將會(huì)產(chǎn)生更深遠(yuǎn)的影響,這將徹底改變?nèi)祟惖奈磥?lái),甚至?xí)Q定我們是否還有未來(lái)。它不會(huì)解決地球上任何迫在眉睫的問(wèn)題,但它將提供解決這些問(wèn)題的全新視角,讓我們著眼于更廣的空間,而不是拘泥眼下。
06
當(dāng)我們進(jìn)入太空時(shí),會(huì)有怎樣的發(fā)現(xiàn)呢?
會(huì)找到外星生命,還是發(fā)現(xiàn)我們終將在宇宙中踽踽獨(dú)行?我們相信,生命在地球上是自然而生的,是在漫長(zhǎng)的進(jìn)化后,實(shí)現(xiàn)了與地球資源的高度契合。因此,在其他條件適宜的星球上,生命的存在也必定是可能的。
去年,我們推出了長(zhǎng)期研發(fā)計(jì)劃——“突破攝星”,目標(biāo)是讓星際旅行變成現(xiàn)實(shí)。“突破攝星”是人類初步邁向外太空的真正機(jī)會(huì),為了探索和考量移居太空的可能性。
這項(xiàng)創(chuàng)新背后的想法,是以光束來(lái)驅(qū)動(dòng)納米飛行器的前進(jìn)。這樣產(chǎn)生的速度雖然不及光速,但也能達(dá)到其五分之一,約合每小時(shí)1億英里。這樣的系統(tǒng)可以在一小時(shí)內(nèi)抵達(dá)火星,幾天內(nèi)到達(dá)冥王星,一周內(nèi)就可以追上并超過(guò)旅行者號(hào)探測(cè)器,并在僅二十年后到達(dá)半人馬座阿爾法星系。
07
人工智能的成功有可能是人類文明史上最大的事件。但人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會(huì)如何避免危險(xiǎn)。
我相信我們團(tuán)結(jié)在一起,來(lái)呼吁國(guó)際條約的支持或者簽署呈交給各國(guó)政府的公開(kāi)信,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起。所以,監(jiān)管和立法在AI的發(fā)展過(guò)程中十分重要。
08
通過(guò)達(dá)爾文式的演化過(guò)程,侵略性深深根植于我們的基因之中。然而,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,使這種侵略性可能會(huì)以核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)的形式毀滅人類。我們需要用邏輯和理性來(lái)控制這種與生俱來(lái)的本能。
你可能并不是一個(gè)討厭螞蟻的人,但也會(huì)無(wú)意中踩死螞蟻,而如果你負(fù)責(zé)一個(gè)水力發(fā)電的綠色能源項(xiàng)目,項(xiàng)目所在的區(qū)域內(nèi)也可能會(huì)有許多螞蟻巢穴被水淹沒(méi),對(duì)螞蟻來(lái)說(shuō)就非常不幸。我們要避免人類處于這些螞蟻的境地。
09
人類面臨的最大威脅是我們自身的弱點(diǎn),即貪婪和愚蠢。這些人性的基本屬性,將使在人工智能時(shí)代的境況將變的更加糟糕,因?yàn)楫?dāng)機(jī)器被設(shè)定程序后就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點(diǎn),但是機(jī)器人可以輕而易舉的回避這些弱點(diǎn)。
10
我們還應(yīng)該扮演一個(gè)角色,確保下一代不僅僅有機(jī)會(huì)還要有決心,在早期階段充分參與科學(xué)研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個(gè)更加美好的的世界。