面對AI滅世主義:智能并非全部
AI滅世主義者早就迷失在一種偽裝成貝葉斯分析的宗教當(dāng)中。這是Oxide公司CTO在接受TNS采訪時說的。
圖片
譯自Bryan Cantrill on AI Doomerism: Intelligence Is Not Enough,作者 David Cassel 是舊金山灣區(qū)的自豪居民,他已在那里報道技術(shù)新聞二十多年。多年來,他的文章出現(xiàn)在從 CNN、MSNBC 和華爾街日報互動版等地方......
當(dāng)歷史學(xué)家回顧我們這個時代時,他們會看到一個面臨新技術(shù)的物種。他們會看到新的關(guān)注點(diǎn),甚至有人會提出存在主義的恐懼——AI 可能會滅絕人類。
但是,他們可能也會記住其他的事情。一個人站在緬因州波特蘭的舞臺上,捍衛(wèi)人類的榮譽(yù),因?yàn)槿祟悡碛?AI 永遠(yuǎn)無法復(fù)制的獨(dú)特屬性。
就像威廉·??思{(William Faulkner)曾說過的那樣,人性不僅會持續(xù),還會獲勝。
這種防御來自Bryan Cantrill,Oxide 計(jì)算機(jī)公司的聯(lián)合創(chuàng)始人兼首席技術(shù)官。在第 11 屆年度“Monktoberfest” 開發(fā)者大會上——一個“檢查社會趨勢和技術(shù)交叉點(diǎn)”的開發(fā)者大會上,Cantrill 針對高度假設(shè)的“存在主義威脅”場景吐露了自己的強(qiáng)烈感受。在一次電子郵件采訪中,Cantrill 告訴我們:“我的演講不是針對 AI 滅世主義者的?!?/p>
“他們早已經(jīng)消失在一種偽裝成貝葉斯分析的宗教中。”
在緬因州的波特蘭,他告訴他的聽眾,這次演講是被“一大群互聯(lián)網(wǎng)垃圾煽動的,我被它們讓人難以置信的激怒的......”
AI 將如何確切地滅絕人類?Cantrill 摒棄了一些常見的建議場景,因?yàn)樗鼈兊囊罁?jù)荒謬莫名,甚至可笑。(“你不能說一個計(jì)算機(jī)程序?qū)刂坪宋淦鳌!?
好吧,但是如果 AI 以某種方式開發(fā)出了新型生物武器呢?“我認(rèn)為這反映了對生物武器有多復(fù)雜的某種誤解?!币且粋€超級智能 AI 開發(fā)出了新型分子納米技術(shù)呢?
“我不好意思說,在意識到所有的東西都沒有被簡化為實(shí)踐之前,我讀完了一整本關(guān)于納米技術(shù)的書......所有這些實(shí)際上都是假設(shè)的?!?/p>
“正如每當(dāng)涉及到 AI 接管世界的時候,我女兒喜歡說的:‘它沒有手臂或腿。'”
Cantrill 然后對他認(rèn)為荒謬的假說做出了更簡短的反應(yīng):“天啊。納米技術(shù)又回來了?!?/p>
Cantrill 樂于展示他對滅絕人類的 AI 的懷疑態(tài)度,并指出即使作為一個假說,它也提出了“數(shù)以億計(jì)的問題”。例如,為什么那會是 AI 的動機(jī)?它從哪里獲得生產(chǎn)手段?“正如每當(dāng)涉及到 AI 接管世界的時候,我女兒喜歡說的:‘它沒有手臂或腿。'”
Cantrill 詳細(xì)闡述,逗樂了觀眾?!爱?dāng)你想殺死所有人類時,缺乏手臂和腿變得真正關(guān)鍵?!?/p>
那么 AI 到底如何應(yīng)對人類反抗的威脅?“老實(shí)說,幻想一下有點(diǎn)好玩......” Cantrill 說?!澳隳芟胂笕绻覀兌悸?lián)合起來與計(jì)算機(jī)程序作斗爭會怎么樣嗎?”想一想,如果全人類集中各種力量挫敗一段單一的軟件故障,那將是什么景象。
“那會很棒!”
軟件是核武器嗎?
AI 滅世主義的一個例子是一位善意的人,根據(jù) Cantrill 的描述,他“不情愿地支持暫停所有 AI——AI 令人恐懼,我們必須暫停所有 AI 研究”。
9月,AI 助手公司Lindy的創(chuàng)始人Flo Crivello在一條推文中論證說,“智能是世界上最強(qiáng)大的力量......而我們正要在不太過思考的情況下向地球上的每一個人提供核武器......”
Crivello 還認(rèn)為“沒有提供任何實(shí)質(zhì)性的反對存在主義風(fēng)險的論證”,并嘲笑AI 支持者是“不慎重的人”。
首先,Cantrill 對這種場景中的慎重的人上推特發(fā)帖“將計(jì)算機(jī)程序與核武器等同”感到冒犯。而這些所謂認(rèn)真的人士已經(jīng)走得如此之遠(yuǎn),以至于扔掉了自己對我們“滅亡概率”的評估——也就是對全人類的完全湮滅。
“我們能對我們共同的祖先有點(diǎn)更多的敬畏嗎?”
但是 Cantrill 認(rèn)為,這種“夸張”和無依據(jù)的假設(shè)本身可能會導(dǎo)致可怕的場景。例如,AI 開發(fā)的暫停將是“目中無人的權(quán)威主義。這是必須的?!?Cantrill 首先指出,即使是“限制計(jì)算機(jī)程序能做什么也相當(dāng)嚇人,違反了許多人認(rèn)為的自然權(quán)利”。
在這條向下的滑坡路上,就像一個幻燈片指出的,“伴隨著的言論往往令人不安地暴力”。一些認(rèn)為 AI 對人類構(gòu)成存在主義威脅的人然后可以證明實(shí)際的人類保護(hù)暴力行為。
在 Cantrill 看來,認(rèn)為人類存在存在主義威脅會導(dǎo)致人們說“我們應(yīng)該控制 GPU。那些違反 GPU 國際禁運(yùn)的人呢?是的,我們應(yīng)該轟炸他們的數(shù)據(jù)中心。事實(shí)上,我們應(yīng)該先發(fā)制人地打擊他們的數(shù)據(jù)中心。”
Cantrill 嘲笑這是一種反應(yīng)過度,全部是“因?yàn)橐粋€計(jì)算機(jī)程序”。如果這個辯論中需要一個“嚴(yán)肅的”反駁,Cantrill 自己就提出了一個。
“請不要轟炸數(shù)據(jù)中心。”
AI 無法做到的事情
Cantrill 的演講題目是“智力還不夠:工程的人性化”。
這里聽眾意識到他們正在聆聽一家剛推出全新服務(wù)器架構(gòu)的公司自豪的 CTO 的演講?!拔蚁腙P(guān)注實(shí)際進(jìn)行工程所需要的......我確實(shí)有一些最近構(gòu)建某些非常大和非常難的集體工程實(shí)踐的經(jīng)驗(yàn)......”
分享一個來自現(xiàn)實(shí)世界的故事,Cantrill 鋪上了他們完成的服務(wù)器的圖片,然后講述了來自所有可怕故事中最可怕的反烏托邦:生產(chǎn)。
- 他們花了幾周時間調(diào)試一個拒絕重置的 CPU——最后發(fā)現(xiàn)問題是他們供應(yīng)商固件中的一個錯誤。
- 另一個星期花在一個也不會重置的網(wǎng)絡(luò)接口控制器上。同樣,他們的供應(yīng)商出了錯——這涉及到其一個關(guān)鍵電阻器的規(guī)格。
- 甚至有一個時間期間他們后來稱為“數(shù)據(jù)損壞周”——當(dāng)損壞開始零星出現(xiàn)在他們的操作系統(tǒng)引導(dǎo)鏡像中。(一張幻燈片解釋了難以置信的晦澀原因:他們的微處理器“通過一個搭便車的早期引導(dǎo)中的映射進(jìn)行投機(jī)性加載”)。Cantrill 說只有一個孤獨(dú)的人類通過直覺知道該往哪看?!罢撬麄兊暮闷嫘囊I(lǐng)他們找到了表面下燃燒的煤火?!?/li>
重要的是,這些錯誤的共同點(diǎn)是“新出現(xiàn)”的屬性——實(shí)際上不是設(shè)計(jì)到部件中的東西,而是把它們組合在一起時出現(xiàn)的?!皩τ诿恳粋€,都沒有任何文檔。事實(shí)上,對于其中幾個,文檔是積極不正確的。文檔會誤導(dǎo)你......突破往往是一些不應(yīng)該工作的東西。
“一些超級智能存在不會建議的東西?!?/p>
Cantrill 放上一張幻燈片,寫著“僅有智力并不能解決這樣的問題”,展示了他在 Oxide 的團(tuán)隊(duì)擁有某些獨(dú)特的人性?!拔覀兘鉀Q這些問題的能力與我們作為一個團(tuán)隊(duì)的集體智慧無關(guān)......”他告訴他的聽眾?!拔覀儽仨氄{(diào)動我們性格的要素。不是我們的智力——我們的韌性?!?/p>
“我們的團(tuán)隊(duì)精神。我們的嚴(yán)謹(jǐn)。我們的樂觀主義?!?/p>
Cantrill 說他確信你(人類)的工程師也一樣......
他強(qiáng)調(diào)了他演講的關(guān)鍵點(diǎn)?!斑@些是人的屬性?!?當(dāng)我們招聘時,我們不僅考慮智力——而是尋求協(xié)作和團(tuán)隊(duì)精神,最重要的是共同的價值觀?!斑@種對智力的著迷來自那些誠實(shí)地說不太外出的人。”
“他們需要多動手做事,比如照顧孩子,遠(yuǎn)足......”
一個深刻的真理
Cantrill 得出了他所說的一個深刻的真理:“智力很偉大;但它不是全部。這里有人性?!?/p>
需要澄清 AI 對工程師而言仍然有用,但缺乏三個關(guān)鍵屬性:意志力、欲望和驅(qū)動力?!爱?dāng)我們假裝它們可以自主工程時,我們是在損害我們自己的人性?!?Cantrill說。
“它們不能。我們?nèi)祟惪梢?.....”
雖然 Cantrill 認(rèn)為人類滅絕的風(fēng)險太小,不值得擔(dān)心,但他承認(rèn)確實(shí)存在真正的風(fēng)險。但是“壞消息,” Cantrill 說?!斑@是你已經(jīng)知道的風(fēng)險......是種族主義。是經(jīng)濟(jì)失業(yè)。是階級——就是我們作為人類永恒以來一直在應(yīng)對的所有問題?!?/p>
“AI 是這些問題的力量乘數(shù),我們需要非常非常認(rèn)真地對待它。因?yàn)?AI 將被濫用——已經(jīng)在被濫用。AI 倫理非常重要。”
Cantrill 指出,這里有一線希望。已經(jīng)有關(guān)于核武器、生物武器研究甚至自動駕駛汽車等事物的現(xiàn)成法律法規(guī)和整個監(jiān)管體系?!白屛覀儓?zhí)行它們......” Cantrill說?!坝媚愕目謶謥硗苿訄?zhí)行法規(guī)?!?/p>
但這使得反對他認(rèn)為過度炒作的“AI 悲觀主義”變得更加重要。正如 Cantrill 在最近的一篇博文中所說,“AI 會自主地毀滅人類的恐懼比無稽之談更糟,因?yàn)樗鼈儠刮覀兒鲆?AI 可能被濫用的非常實(shí)際的可能性?!?/p>
在他的演講中,Cantrill 甚至暗示人們秘密上更喜歡思考一個夸大的反烏托邦,“我們反正都會滅絕......所以像‘我們都會在奇點(diǎn)之后......我們實(shí)際上不在乎這個世界。'”
“我們中有些人確實(shí)在乎這個星球、這生活和這個世界。這就是我們生活的世界。
“我們不應(yīng)該讓恐懼——未指定的、非具體的恐懼——阻止我們使這個世界變得更好?!?/p>