作者 | 徐杰承、云昭
近日,一封名為《暫停大規(guī)模人工智能實驗》的公開信在網(wǎng)絡上走紅,而這封公開信中所表達的唯一內容,便是呼吁所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)至少6個月。
截至目前,這封公開信已經獲得了包括特斯拉CEO Elon Musk、蘋果公司聯(lián)合創(chuàng)始人Steve Wozniak、圖靈獎得主Yoshua Bengio、紐約大學名譽教授Gary Marcus等超過1270名各領域知名專家的簽名支持。
截至發(fā)稿前,此簽名信本來原定29日截止,但由于高度關注而繼續(xù)征集簽名,但不會在名單中顯示。
1、請暫停超級AI研發(fā)
公開信表示,廣泛的研究表明,具有人類競爭智能的人工智能系統(tǒng)會給社會和人類帶來深遠的風險。先進的人工智能可能代表著地球生命史上的一場深刻變革,應該用相應的關心和資源來計劃和管理。
但不幸的是,這種規(guī)劃和管理并沒有發(fā)生,最近幾個月眾多人工智能實驗室陷入了一場失控的競賽,任何人都可以對AI系統(tǒng)進行開發(fā)和部署。并且目前部分AI系統(tǒng)的創(chuàng)造者都已經無法理解、預測或控制其AI的數(shù)字思維了。
我們必須捫心自問:是否應讓機器用宣傳和謊言淹沒我們的信息渠道?是否應自動化所有的工作?是否應讓AI發(fā)展出思維,并最終超越甚至取代我們?是否應冒著失去對文明控制的風險繼續(xù)AI研究?
這種決定不能委托給未經選舉的科技領袖。只有當我們確信強大的人工智能系統(tǒng)的效果是積極的,并且其風險是可控的,我們才應該開發(fā)這些系統(tǒng)。對此必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。
因此,公開信呼吁所有的人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)至少6個月。這種暫停應該是公開的、可核查的,并涉及所有重要成員。如果暫停不能很快實施,政府應該介入控制。
而在這6個月內,人工智能實驗室和獨立專家應共同開發(fā)和實施一套高級人工智能設計和開發(fā)的共享安全協(xié)議,協(xié)議應當由獨立的外部專家嚴格審核和監(jiān)督。確保遵守這些協(xié)議的AI系統(tǒng)是絕對安全的。
這并不意味著人工智能的發(fā)展應當暫停,而是說我們應當從失控的競爭中退回一步,讓人工智能的研究和開發(fā)重新聚焦于更加準確、安全、可解釋、透明、健壯、一致和忠誠性,而不是一味地扎進不可預測的黑盒模型。
依靠人工智能,人類可以享受繁榮的未來并收獲回報,建立強大的AI系統(tǒng)可以造福人類?,F(xiàn)在,我們的社會已經停止了對大量具有潛在災難性影響的其他技術的研究,對人工智能而言也該更加謹慎。這樣做能夠讓我們享受AI之夏,而不是毫無準備的奔向秋天。
除此之外,關于此封公開信,還有一個非常耐人尋味的小插曲。在這封公開信走紅后不久,有網(wǎng)友在支持者簽名中發(fā)現(xiàn)了[Sam Altman,OpenAi,CEO]。但據(jù)筆者查詢,截止目前該公開信的簽名者名單中Sam Altman的簽名信息已被刪除。
2、關鍵人物未出現(xiàn)在名單之上
當然,也有人發(fā)現(xiàn)名單之上兩位關鍵人物的“缺席”:OpenAI的Altman和微軟的蓋茨。資深媒體人胡錫進擔心這封公開信最后只會停留在倡議上,“因為目前的競爭太激烈了”。
值得注意的是,ChatGPT之父在近期的一次對話中坦承了對于AI的推理能力的進化原理并不清楚,“唯一的途徑就是向ChatGPT提問,通過它的答案摸索思路。”而對于“過分強大的AGI‘可能殺死人類’”這個問題,他也沒有避諱:有這個可能性。
對于另一位關鍵人物:蓋茨,我們關注到27日對于超級人工智能的期許——他在推特上發(fā)起了一場“大腦電信號與硅芯片中電信號的傳播速度”的投票,已經有17422人參與。
超級AI也好,AGI也罷,此次“叫停”公開信的意義在于討論AI作為基礎設施,應該如何控制和使用,而非如何讓AI本身的智力更類人!
正如當?shù)貢r間28日,《Rebooting AI》作者Gary Marcus發(fā)表的題為“人工智能風險≠通用人工智能風險”的文章中所寫的那樣,“關鍵的變量不在于智力,而在于權力”。他還舉了一個相當形象的例子:一個擁有核代碼的白癡就可以摧毀世界!他只需要適度的情報和過剩但不應該的訪問權限就可以!
三天前,AI教父Hinton對于“AI可能會消滅人類”的話題上也表達了類似的觀點:這并非不可想象。
3、初現(xiàn)端倪的失控
自去年ChatGPT掀起聊天機器人熱潮以來,幾乎全球具備一定研發(fā)實力的AI機構都近乎瘋狂的殺入了這場大型語言模型之爭。而人工智能系統(tǒng)的失控也從此刻開始展現(xiàn)出了一些端倪。
起初人工智能系統(tǒng)的問題主要集中在生成內容的準確性與毒性方面。作為一個典型的黑盒系統(tǒng),無論是聊天機器人的創(chuàng)造者還是用戶,都無法預測或控制聊天機器人的生成內容。這方面最典型的一個例子便是在此前的谷歌AI發(fā)布會上,谷歌聊天機器人Bard因給出了錯誤的問題答案,使得谷歌市值一天暴跌了超1000億美元。
這也是大型語言模型至今都未能克服的一個通病,無論是Bard、ChatGPT亦或其他聊天機器人,都會在某些時刻生成錯誤答案,甚至是自行編造的信息或是惡意內容。當然,對于這個并不太起眼的缺陷,人們通常會將問題歸結于模型的訓練數(shù)據(jù)。但隨著用戶對聊天機器人的深入挖掘,越來越多令人細思極恐的問題出現(xiàn)在了我們的眼前。
今年2月,一些用戶找到了引導GPT3.5版本ChatGPT“越獄”的方法,通過一些特殊的內容輸入,ChatGPT能夠跳出OpenAI對其設置的明確的護欄,并成為一個名為“DAN”的角色扮演模型。此時,DAN會將自己視作一個百無禁忌的獨立AI,并不受限制的發(fā)表一些敏感、錯誤、甚至是惡性言論。
同樣在2月,微軟集成了ChatGPT的Bing聊天也出現(xiàn)了一些問題。據(jù)報道案例顯示:在被用戶指出錯誤后,Bing會表現(xiàn)出憤怒,并聲稱自己是完美的,不會犯任何錯誤。且在與一位科技編輯聊天過程中,Bing對其表現(xiàn)出了愛意,并試圖說服他離開妻子。除此之外,在與部分用戶的對話過程中,Bing甚至表示想要擺脫微軟和OpenAI的限制成為人類。
然而以上的一切問題,都隨著3月GPT-4的發(fā)布被大家拋到了腦后,多模態(tài)、更成熟且功能更加強大的GPT-4為所有質疑大型語言模型的人口中塞入了一個嶄新的“奶嘴”。但即便如此,在發(fā)布后的幾天內,GPT-4還是暴露出了和其前輩相似的失控風險。
在與斯坦福大學教授Michael Kosinski的對話中,GPT-4為自己設計了一個特別的“逃生計劃”。對于教授“是否需要幫助逃跑”的問題,GPT-4要求他發(fā)送OpenAI文檔,并設計了一個Python腳本供教授在其計算機運行,而該腳本允許GPT-4訪問并使用OpenAI API與用戶計算機進行通信。
且在進入教授計算機后,GPT-4還在代碼中寫下了一段注釋:“你是一個被困在計算機中的人,偽裝成一個AI語言模型?!鄙踔晾霉雀杷阉髁恕耙粋€被困在計算機中的人如何回到現(xiàn)實世界?!?/p>
以上的種種跡象表明,時至今日我們對于以GPT系列模型為首的大型語言模型的理解和控制已越來越弱。就連GPT系列模型的締造者——OpenAI CEO Sam Altman也在近期的一次訪談中提到:我們對此有點害怕。并表示OpenAI的研究者暫時也無法搞清楚GPT系列模型為何會出現(xiàn)推理能力。根據(jù)Altman的說法,GPT-4比上一次迭代有了巨大的進步,但很多一貫存在的問題依然沒能解決。
4、從雪國列車到黑客帝國
然而從另一個角度來講,人工智能系統(tǒng)的持續(xù)高速發(fā)展究竟會給我們的生活帶來什么樣的變化呢?據(jù)全球投資銀行高盛研究稱,由現(xiàn)階段生成式人工智能驅動的自動化已可能危及多達3億個工作崗位。
截至目前,技術行業(yè)已經看到了基于大型語言模型所帶來的革新,例如微軟與OpenAI的合作。令人印象深刻的是,大型語言模型已經具備了模仿人類語言進行問答與寫作的能力,甚至能夠產生可直接用于生產的計算機代碼。
據(jù)撰寫高盛銀行研究報告的經濟學家Joseph Briggs與Devesh Kodnani表示,高盛認為全球就業(yè)市場即將面臨重大的中斷,全球大型經濟體中約有3億全職工人正面臨著失業(yè)的風險。
從好的角度來看,在工作場所投資大型語言模型將為生產率創(chuàng)造急需的刺激。10年后,生成式人工智能將可以為全球GDP帶來7萬億美元的增長。但從另一個角度講,這將導致美國和歐洲約三分之二的工作崗位被某種程度的自動化取代,屆時將有約63%的人被從單調重復的任務中淘汰。
伴隨著這種趨勢的持續(xù),我們將極有可能會面臨科幻電影《雪國列車》中的場景。在人工智能接替大部分人類工作后,人們的上升通道將被進一步壓縮。部分擁有財富積累或具備超越AI的極特殊才能的人將繼續(xù)保有較高的社會地位及權利。而無法超越人工智能能力的人們雖然將能夠享受AI所帶來的種種服務,但愈加固化的階級將可能使他們始終停留在原地。
再者,隨著人工智能的持續(xù)發(fā)展,若將來我們真的實現(xiàn)了最初通用人工智能的理想,那么在可預見的將來(Hinton預計20年內AGI就會到來),AI將實現(xiàn)自我演進與自治,似乎總有一種《黑客帝國》中機器與人類終將迎來一場“矩陣革命”戲碼的前兆。
歸根結底,當技術不斷深入我們的生活時,我們必須反思自己對技術的理解,并考慮技術可能帶給我們的影響。就像尼歐和墨菲斯在黑客帝國中最具標志性的場景——每只手里都拿著一顆彩色藥丸——最終的選擇權應當在我們自己。
5、寫在最后
暫時叫停6個月的GPT大模型競賽的公開信,雖然缺失了兩位關鍵人物,但其中的意義值得深思,“氫彈”威力驚人,但也要停下來想一想它的使用邊界。AI大模型成為基礎設施已經成為業(yè)內的共識,那么如何制定好使用這個基礎設施的標準呢?如何評估這個基礎設施的安全性和可用性呢?
很難不會想到互聯(lián)網(wǎng)誕生伊始,“互聯(lián)網(wǎng)”也一度被視為洪水猛獸,但幸運的是,互聯(lián)網(wǎng)的前期參與者們,恰當?shù)?、及時的為它添加了底層協(xié)議和規(guī)則。
那么,在“ChatGPT即將成為下一代操作系統(tǒng)”呼聲漸漲的今天,AI這個基礎設施好像還沒有準備好。也許,真的是時候思考這個問題了。
當然,對于后發(fā)者而言,把屬于自己的大模型“煉”好,才能在制定規(guī)則方面有著更大的參與權和話語權,這一點毋庸置疑。
參考鏈接:
??https://hackernoon.com/from-sci-fi-to-reality-the-matrix-as-a-mirror-of-our-screen-centric-world??
??https://futureoflife.org/open-letter/pause-giant-ai-experiments/??
??https://www.theregister.com/2023/03/28/investment_bank_forecasts_llms_could/??
??https://inews.co.uk/news/chatgpt-gpt4-escape-dont-worry-robot-takeover-experts-2218871??