LeCun、吳恩達等370多人簽聯(lián)名信:嚴格控制AI是危險的,開放才是解藥
近幾日,關(guān)于如何監(jiān)督 AI 的討論越來越熱烈,各位大佬們意見非常不統(tǒng)一。
比如圖靈獎三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出現(xiàn)了兩種觀點。Hinton、Bengio 為一隊,他們強烈呼吁加強對 AI 的監(jiān)管,否則可能引發(fā)「AI 滅絕人類」的風險。LeCun 與他們的觀點并不相同,他認為 AI 強監(jiān)管必將帶來巨頭壟斷,結(jié)果是只有少數(shù)公司控制 AI 的研發(fā)。
為了表達自己的想法,很多人以簽署聯(lián)名信的方式來傳達觀點,就拿剛剛過去的幾天來說,Bengio、Hinton 等再發(fā)聯(lián)名信《在快速發(fā)展的時代管理人工智能風險》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施。
與此同時,近日一封名為《人工智能安全和開放的聯(lián)合聲明》的公開信正在社交媒體發(fā)酵。
公開信鏈接:https://open.mozilla.org/letter/
截至目前,深度學(xué)習(xí)三巨頭之一的 LeCun、斯坦福大學(xué)計算機科學(xué)系教授吳恩達等 370 多人已經(jīng)在這封公開信上簽名。名單還在持續(xù)更新中。
LeCun 表示,「開放、透明和廣泛的訪問使軟件平臺更安全、更可靠。這封來自 Mozilla 基金會的公開信,我也簽了名,它為開放的人工智能平臺和系統(tǒng)提供了理由。」
以下為公開信內(nèi)容:
我們正處于人工智能治理的關(guān)鍵時刻。為了減輕人工智能系統(tǒng)當前和未來的危害,我們需要擁抱開放、透明和廣泛的訪問。這需要成為全球優(yōu)先事項。
的確,公開可用的模型存在風險和漏洞 —— 人工智能模型可能被惡意行為者濫用或被裝備不足的開發(fā)人員部署。然而,我們一次又一次地看到,各種專有技術(shù)都是如此 —— 增加公眾訪問和審查使技術(shù)更安全,而不是更危險。對基礎(chǔ)人工智能模型進行嚴格和專有的控制是保護我們免受大規(guī)模傷害的唯一途徑,這種想法往好了說是天真,往壞了說就是危險。
此外,人類發(fā)展的歷史告訴我們,迅速采取錯誤的監(jiān)管可能會導(dǎo)致權(quán)力集中,從而損害競爭和創(chuàng)新。開放模型可以為公開辯論提供信息并改進策略制定。如果我們的目標是安全、保障和問責,那么開放和透明就是實現(xiàn)這一目標的重要因素。
我們正處于一場關(guān)于人工智能時代「開放」含義的動態(tài)討論之中。這場重要的辯論不應(yīng)該放慢腳步。相反,它應(yīng)該加快速度,鼓勵我們嘗試、學(xué)習(xí)和開發(fā)新的方法,在人工智能安全競賽中利用開放性。
我們需要為開源與開放構(gòu)建一系列方法,這些方法可以作為以下方面的基石:
1. 通過獨立研究、協(xié)作和知識共享,加速了解人工智能能力的風險和危害。
2. 通過幫助監(jiān)管機構(gòu)采用工具來監(jiān)控大規(guī)模人工智能系統(tǒng),加強公眾監(jiān)督和問責。
3. 降低新玩家的進入門檻,專注于創(chuàng)建負責任的人工智能。
作為這封公開信的簽署人,我們是一個多元化的群體,包括科學(xué)家、策略制定者、工程師、活動家、企業(yè)家、教育工作者和記者等等。我們代表關(guān)于如何管理和發(fā)布開源人工智能的不同觀點。然而,我們強烈同意一件事:開放、負責任和透明的方法對于確保我們在人工智能時代的安全至關(guān)重要。
在人工智能安全方面,開放是解藥,而不是毒藥。
簽名者:
- Arthur Mensch,法國初創(chuàng)公司 MistralAI 聯(lián)合創(chuàng)始人兼首席執(zhí)行官
- 吳恩達,DeepLearning.AI 創(chuàng)始人,Landing AI 創(chuàng)始人兼首席執(zhí)行官,斯坦福大學(xué)計算機科學(xué)系教授
- Yann Lecun,圖靈獎得主,Meta 首席 AI 科學(xué)家
- Julien Chaumond,Hugging Face CTO
- Brian Behlendorf,Apache 創(chuàng)始成員,OpenSSF 首席技術(shù)官
- Eric Von Hippel,美國經(jīng)濟學(xué)家,MIT 斯隆管理學(xué)院教授
- ……
目前,這封僅僅出現(xiàn)數(shù)天的公開信在持續(xù)發(fā)酵,在國外 AI 社區(qū)已經(jīng)引起了極大的關(guān)注與討論,大家可以持續(xù)關(guān)注名單更新。
如果你同意這封聯(lián)名信的觀點,也可以提交自己的信息簽名。
對 AI 進行強監(jiān)管,到底是弊大于利,還是利大于弊,還需要時間給出答案。