開放模型權(quán)重被指將導(dǎo)致AI失控,Meta遭舉牌抗議,LeCun:開源AI社區(qū)如火如荼
一直以來,人們在 AI 領(lǐng)域的開源與閉源選擇上存在著分歧,而在大模型時代,開源這股強大的力量已經(jīng)悄然崛起。根據(jù)此前谷歌泄露的一份內(nèi)部文件,圍繞 Meta 的 LLaMA 等開源模型,整個社區(qū)正在迅速構(gòu)建與 OpenAI、谷歌大模型能力類似的模型。
毋庸置疑,Meta 是開源世界的絕對核心,持續(xù)做出開源努力,如最近發(fā)布 Llama 2。然而木秀于林風(fēng)必摧之,最近 Meta 因為開源陷入了「麻煩」。
在 Meta 的舊金山辦公室外,一群手舉標語的抗議者聚集在一起,抗議 Meta 公開發(fā)布 AI 模型的策略,并聲稱這些發(fā)布的模型造成了潛在不安全技術(shù)的「不可逆轉(zhuǎn)的擴散」。甚至有抗議者將 Meta 發(fā)布的大模型比作「大規(guī)模殺傷性武器」。
這些抗議者自稱為「concerned citizens」(關(guān)心某事的公民),由 Holly Elmore 領(lǐng)導(dǎo)。根據(jù)領(lǐng)英信息,她是 AI Pause(中止 AI)運動的獨立倡導(dǎo)者。
圖源:MISHA GUREVICH
她指出,如果一個模型被證明不安全,則可以關(guān)閉 API,比如谷歌和 OpenAI 等只允許用戶通過 API 訪問的大模型。
與之相反,Meta 的 LLaMA 系列開源模型向公眾提供了模型權(quán)重,使得任何擁有合適硬件和專業(yè)知識的人都可以自行復(fù)制和調(diào)整模型。一旦發(fā)布了模型權(quán)重,發(fā)布公司就不再有任何手段來控制 AI 的使用方式了。
在 Holly Elmore 看來,釋放模型權(quán)重是一項危險的策略,任何人都可以修改模型,并且這些模型無法被召回?!改P驮綇姶螅@項策略就越危險?!?/span>
相較于開源,通過 API 訪問的大模型通常具備各種安全特性,比如響應(yīng)過濾或通過特定訓(xùn)練阻止輸出危險或令人厭惡的響應(yīng)。
如果模型權(quán)重被釋放出來,那么重新訓(xùn)練模型來跳過這些「護欄」就變得容易多了。這使得利用這些開源模型來制作網(wǎng)絡(luò)釣魚軟件、實施網(wǎng)絡(luò)打擊更加成為了可能。
圖源:MISHA GUREVICH
因為,她認為部分問題在于「針對模型釋放的安全措施不夠」,需要有更好的方式來保證模型安全。
目前,Meta 尚未對此發(fā)表任何評論。不過,Meta 首席 AI 科學(xué)家 Yann LeCun 似乎對「開源 AI 必須被取締」這一說法進行了回應(yīng),曬出了巴黎開源 AI 創(chuàng)業(yè)社區(qū)的盛況。
與 Holly Elmore 持不同意見的人也有很多,認為 AI 發(fā)展的開放策略是確保實現(xiàn)技術(shù)信任的唯一途徑。
有網(wǎng)友表示,開源有利有弊,既可以讓人們獲得更高透明度并增強創(chuàng)新,但也將面臨惡意行為者濫用(如代碼)的風(fēng)險。
不出所料,OpenAI 再次遭到了揶揄,「它應(yīng)該回歸開源。」
對開源持有擔憂的不在少數(shù)
MIT AI 安全博士后研究員 Peter S. Park 表示:「未來廣泛發(fā)布先進的 AI 模型將特別成問題,因為防止濫用 AI 模型基本是不可能的?!?/span>
不過,非營利性人工智能研究組織 EleutherAI 的執(zhí)行董事 Stella Biderman 表示:「到目前為止,幾乎沒有證據(jù)表明開源模型造成了任何具體的損害。目前還不清楚是否僅在 API 背后放置一個模型就可以解決安全問題?!?/span>
Biderman 認為:「構(gòu)建 LLM 的基本要素已在免費的研究論文中公開,世界上任何人都可以閱讀論文文獻來開發(fā)自己的模型?!?/span>
她還補充道:「鼓勵公司對模型細節(jié)保密可能會對領(lǐng)域研究的透明度、公眾意識和科學(xué)發(fā)展產(chǎn)生嚴重的不良后果,特別是會影響?yīng)毩⒀芯咳藛T?!?/span>
盡管大家已經(jīng)在討論開源帶來的影響,但 Meta 的方法是否真的足夠開放,是否能夠發(fā)揮開源的優(yōu)勢,還未可知。
開放源代碼促進會(OSI)執(zhí)行董事 Stefano Maffulli 表示:「開源 AI 的概念尚未得到正確定義。不同的組織使用該術(shù)語來指代不同的事物 —— 表示不同程度的『公開可用的東西』,這會讓人們感到困惑?!?/span>
Maffulli 指出,對于開源軟件來說,關(guān)鍵問題是源代碼是否公開可用并可復(fù)現(xiàn)用于任何目的。但是想復(fù)現(xiàn) AI 模型可能必須要共享訓(xùn)練數(shù)據(jù)、收集數(shù)據(jù)的方式、訓(xùn)練軟件、模型權(quán)重、推理代碼等等。其中,最重要的是訓(xùn)練數(shù)據(jù)可能存在隱私和版權(quán)問題。
OSI 自去年以來一直致力于為「開源 AI」給出一個確切的定義,很有可能會在未來幾周內(nèi)發(fā)布早期草案。但無論如何,他都認為開源對 AI 發(fā)展至關(guān)重要?!溉绻?AI 不是開源的,我們就不可能擁有值得信賴、負責(zé)任的 AI」,他說道。
未來,關(guān)于開源與閉源的分歧會一直延續(xù)下去,但開源已經(jīng)無法阻擋。