馬斯克等人呼吁暫停AI研究公開信遭質(zhì)疑 被指加劇炒作、歪曲論文
3月31日消息,特斯拉首席執(zhí)行官埃隆·馬斯克?(Elon Musk)、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他上千名AI?研究人員日前簽署公開信,呼吁暫停研究更先進的AI技術(shù)。然而,此信遭到許多專家甚至簽名者的質(zhì)疑,被指加劇AI炒作、簽名造假以及歪曲論文等。
這封公開信由非營利組織“生命未來研究所”(Future of Life Institute)撰寫,其使命是“減少強大技術(shù)帶來的全球災(zāi)難性和生存風(fēng)險”。具體來說,該研究所專注于減輕人類的長期“生存”風(fēng)險,比如超級智能AI。馬斯克是該組織的支持者,他在2015年曾向其捐贈了1000萬美元。
信中寫道:“只有在我們確信AI的影響是積極的、風(fēng)險是可控的情況下,才應(yīng)該開發(fā)更強大的AI系統(tǒng)。因此,我們呼吁所有AI實驗室立即暫停至少6個月訓(xùn)練比GPT-4更強大的AI系統(tǒng)。AI實驗室和獨立專家應(yīng)該利用這段時間,共同開發(fā)和實施一套高級AI設(shè)計和開發(fā)的共享安全協(xié)議,這些協(xié)議由獨立的外部專家嚴(yán)格審計和監(jiān)督。”
這封信還澄清說:“這并不意味著AI發(fā)展總體上處于暫停狀態(tài),只是從危險的競賽退回到具有緊急功能的更大、不可預(yù)測的黑箱模型?!彼傅氖俏④浐凸雀璧却笮涂萍脊局g的AI競賽,這兩家公司在過去一年發(fā)布了許多新的AI產(chǎn)品。
其他著名的簽名者包括圖像生成器創(chuàng)企Stability AI首席執(zhí)行官伊馬德·穆斯塔克(Emad Mostaque)、作家兼歷史學(xué)家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)和Pinterest聯(lián)合創(chuàng)始人埃文·夏普(Evan Sharp)等。也有參與AI競賽的公司的員工簽名,包括谷歌姊妹公司DeepMind和微軟。盡管OpenAI開發(fā)并商業(yè)化了GPT系列AI模型,但沒有人在信上簽名。
盡管經(jīng)過了驗證過程,但這封信一開始還是有許多虛假簽名者,包括冒充OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)、Meta首席AI科學(xué)家雅恩·勒昆(Yann LeCun)的人。之后,生命未來研究所清理了名單,并在驗證每個簽名時暫停了在信上顯示更多簽名。
然而,這封公開信的發(fā)布已經(jīng)引起了軒然大波,受到許多AI研究人員的仔細審查,包括許多簽名者本人。有些簽名者重新改變了自己的立場,有些知名人士的簽名被證明是假的,更多AI研究人員和專家則公開對這封信中的描述和提議的方法表達了反對意見。
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授加里·馬庫斯(Gary Marcus)說:“這封信并不完美,但其精神是正確的。”同時,Stability AI首席執(zhí)行官穆斯塔克在推特上表示,OpenAI是一家真正“開放”的AI公司,“所以,我不認(rèn)為暫停訓(xùn)練六個月時間是最好的主意,也不同意信中的很多觀點,但這封信中有些地方的確很有趣。”
AI專家批評這封信進一步推動了“AI炒作”,但卻沒有列出或呼吁對當(dāng)今存在的AI危害采取具體行動。有些人認(rèn)為,這宣揚了一種長期卻有些不符合實際的觀點,這種觀點被批評為有害和反民主的,因為它對超級富豪更有利,并允許他們在某些理由下采取道德上可疑的行為。
華盛頓大學(xué)語言學(xué)系教授、公開信開頭所引用論文的合著者艾米麗·本德爾(Emily M. Bender)在推特上寫道,這封信中“充斥著AI炒作”,并濫用了她的研究成果。信中稱:“廣泛的研究表明,具有堪比人類智慧的AI系統(tǒng)可能會對社會和人類構(gòu)成重大威脅。”但本德爾反駁說,她在研究中特別指出,這種威脅是指目前的大型語言模型及其在壓迫系統(tǒng)中的使用情況,這比公開信中假設(shè)的未來AI威脅要具體得多,也更緊迫。
本德爾繼續(xù)寫道:“我們在2020年底發(fā)布了完整論文,指出這種不考慮風(fēng)險而急于建立更大語言模型的做法存在問題。但風(fēng)險和危害從來都不是‘AI過于強大’,相反,它們關(guān)乎權(quán)力集中在人民手中,關(guān)乎重現(xiàn)壓迫體系,關(guān)乎對信息生態(tài)系統(tǒng)的破壞,關(guān)乎對自然生態(tài)系統(tǒng)的破壞等。”
AI初創(chuàng)公司Hugging Face的研究科學(xué)家薩莎·盧西奧尼(Sasha Luccioni)在接受采訪時表示:“公開信在本質(zhì)上是一種誤導(dǎo):讓每個人都注意到大型語言模型被臆想的力量和危害,并提出非常模糊、幾乎無效的解決方案,而不是在此時此刻關(guān)注這些危害并解決它們。例如,在涉及LLM的培訓(xùn)數(shù)據(jù)和能力時要求更多的透明度,或者要求立法規(guī)定在哪里和何時可以使用它們?!?/p>
普林斯頓大學(xué)計算機科學(xué)副教授阿爾溫德·納拉亞南(Arvind Narayanan)表示,這封公開信充滿了AI炒作,“使解決真實的、正在發(fā)生的AI危害變得更加困難”。
公開信中提出了幾個問題:“我們是否應(yīng)該自動化所有工作,包括那些讓人有成就感的工作?我們是否應(yīng)該培養(yǎng)非人類思維,這些思維最終可能會超過人類智慧并取代我們?我們應(yīng)該冒著失去對文明控制的風(fēng)險繼續(xù)開發(fā)AI嗎?”
對此,納拉亞南說,這些問題都是“無稽之談”,“荒謬無比”。計算機是否會取代人類并接管人類文明,這是一個非常遙遠的問題,是長期主義思維的一部分,它分散了我們對當(dāng)前問題的注意力。畢竟,AI已經(jīng)被整合到人們的工作中,減少了對某些職業(yè)的需求,而不是一種會讓我們“過時”的“非人類思維”。
納拉亞南還稱:“我認(rèn)為,這些可以算是合理的長期擔(dān)憂,但它們已被反復(fù)提及,轉(zhuǎn)移了人們對當(dāng)前危害的注意力,包括非常真實的信息安全和安全風(fēng)險!而解決這些安全風(fēng)險將需要我們精誠合作。但不幸的是,這封信中的炒作,包括對AI能力和事關(guān)人類生存風(fēng)險的夸大,可能會導(dǎo)致AI模型被更多地束縛,使應(yīng)對風(fēng)險變得更加困難?!?/p>
不過,許多公開信的簽字人也進行了辯護。研究機構(gòu)Mila創(chuàng)始人兼科學(xué)主任約書亞·本吉奧(Yoshua Bengio)表示,六個月的暫停時間對于包括政府在內(nèi)的治理機構(gòu)理解、審計和驗證AI系統(tǒng)是必要的,可以確保這些系統(tǒng)對公眾是安全的。他補充說,目前存在危險的權(quán)力集中,AI工具有可能破壞民主的穩(wěn)定,“民主價值觀和開發(fā)這些工具的方式之間存在沖突”。
麻省理工學(xué)院NSF AI與基礎(chǔ)交互研究所(IAIFI)物理學(xué)教授、未來生命研究所所長馬克斯·泰格馬克(Max Tegmark)表示,最糟糕的情況是,人類將逐漸失去對文明的控制。他說,目前的風(fēng)險在于,“我們失去了對科技公司中一群未經(jīng)選舉產(chǎn)生的權(quán)力人士的控制,他們的影響力太大了。”
這些評論談到了廣闊的未來,暗示著對失去文明控制的恐懼,但除了呼吁6個月的暫停期之外,沒有談到任何具體措施。
計算機科學(xué)家、分布式AI研究所創(chuàng)始人蒂姆尼特·格布魯(Timnit Gebru)在推特上發(fā)帖稱,具有諷刺意味的是,他們呼吁暫停訓(xùn)練比GPT-4更強大的AI模型,但卻未能解決圍繞GPT-4本身的大量擔(dān)憂。