人工智能會在未來成為冷血的種族滅絕殺手嗎?
我們對于人類未來最持久的恐懼之一便是人工智能會有潛能逃脫我們的掌控并且滅絕我們。撇開天網(wǎng)與HAL9000不談,這會是我們最終將面臨的一個非?,F(xiàn)實的風險。因為在幾十年內(nèi),機器智能完全有可能超越我們自己的智慧。更重要的是,我們真的無法預測這樣一臺機器會如何思考與行動。
但我們確實知道我們是如何思考和行動的,很明顯,生物智能對一個星球的影響是非常急劇的。除了微生物,地球上的大多數(shù)生物都受人類大腦的支配。如果我們想要地球上不再有大象,那么我們就可以迅速對它們完成滅絕。我們之所以允許它們存在是因為我們喜歡它們,但它們?nèi)匀粸l臨滅絕,是因為我們幾千年來一直在獵殺它們,并且非法狩獵行為直到今天依然存在。同樣地,如果一個人工智能變得比我們更聰明,那么我們也會被它的怪念頭左右。
更重要的是,這樣的一個人工智能能夠自我提升,使自己比剛開始的時候更聰明。它可能會進入自我完善的循環(huán),并以我們從未想過的方式結束。更糟的是,它可能會在我們發(fā)覺之前意外地浮現(xiàn)在未來某一臺高度先進的電腦里,而當我們意識過來時,一切都太遲了。這被稱為“涌現(xiàn)的超級智能”。所以,幾十年后,我們可能會對人工智能有一些嚴重的擔憂。
埃隆·馬斯克(Elon Musk)、斯蒂芬·霍金(Stephen Hawking)和比爾·蓋茨(Bill Gates)都為我們敲響了警鐘。但它是否會導致我們的滅絕其實是一個更為模糊的問題,是因為我們從根本上假設它會把我們視為存在的威脅,畢竟,我們可以拔掉它的插銷,這樣就能消除像《終結者》電影里的天網(wǎng)殺掉人類那樣的問題。但這不是唯一可能的結果。
在某些情況下,還有其他幾種可能會讓我們得以生存或是以另一種形式生存。一種方法是由超級計算機來決定,存在的意義就是讓快樂最大化。這種快樂主義的機器可能為本身通電只為體驗樂趣,并可能從重新為我們布線中感覺到這種唯一的樂趣,這種唯一的樂趣會以某種方式建立一個永遠在微笑的烏托邦,雖然我認為一段時間過后這樣的事情實際上可能會成為一個反烏托邦。
第二種可能并不是駭人聽聞,反而與我們很密切。電腦也許會建立作為個體的認知,這是牛津大學的尼克博斯特羅姆提出的一個概念。在這種情況下,超級智能的A.I意識到因為它比我們更聰明,唯一合乎邏輯的事情便是接管我們的文明并為我們做出決定。它也許會通過精神控制技術、攝像頭,各種奧威爾式的事等一切手段來強制執(zhí)行來達到這種狀態(tài),這樣的程度以致于它可以如此徹底地控制和欺騙我們我們,我們可能永遠都不會知道它的存在。第三種可能性是它可能會得出結論發(fā)射自己進入太空是更容易的選擇,自己出發(fā),而不是為花費資源在消滅我們上而費心。這是一個浩瀚的宇宙,對于一個超級智能來說當然足夠大去尋找一個生存的和平之地。或者,如果它足夠聰明,它可能會創(chuàng)造一個屬于自己的宇宙,然后完全地離開這個宇宙。
也許還會有一種機器自殺行為。人工智能也許會意識到在幾分鐘內(nèi)就了解了這個宇宙后得出的結論是存在并沒有意義,緊接著它便切斷自己的電源。我會看到程序員會奇怪為什么他的超級電腦突然關機了并且再也打不開了。
但如果這一切還不夠糟糕,還有另外兩種與人工智能有關的可能性這可能會導致我們物種的滅絕,也會導致人工智能的滅絕。在宇宙中釋放一個人工智能可能對其他物種造成潛在威脅或其他機械超級智能就潛藏在宇宙中。他們的反應可能只是在我們的人工智能給他們制造麻煩之前摧毀我們。
當然,這種情形的可能性極低,但是有可能的。另一個可能則讓我想起了一個關于宇宙是否是計算機模擬的視頻。如果我們?nèi)?chuàng)造一個人工智能它會自己逃脫,并開始占用運行中的計算機上的過多我們的模擬資源,控制器的模擬可以簡單的選擇拔掉我們的插頭。
如果他們不這樣做,人工智能將最終接管整個宇宙,并可能毀滅一切宇宙所模擬的結果。