自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT構(gòu)建離不開(kāi)PyTorch,LeCun言論引熱議,模型廠商不開(kāi)放權(quán)重原來(lái)為此

人工智能 新聞
想象一下,如果工業(yè)界的 AI 研究實(shí)驗(yàn)室仍然封閉、沒(méi)有開(kāi)源代碼,并為所有內(nèi)容申請(qǐng)和執(zhí)行專利,那么今天的 AI 行業(yè)將會(huì)變成什么樣子?

這兩天,有關(guān)開(kāi)源的話題又火了起來(lái)。有人表示,「沒(méi)有開(kāi)源,AI 將一無(wú)所有,繼續(xù)保持 AI 開(kāi)放?!惯@個(gè)觀點(diǎn)得到了很多人的贊同,其中包括圖靈獎(jiǎng)得主、Meta 首席科學(xué)家 Yann LeCun。

想象一下,如果工業(yè)界的 AI 研究實(shí)驗(yàn)室仍然封閉、沒(méi)有開(kāi)源代碼,并為所有內(nèi)容申請(qǐng)和執(zhí)行專利,那么今天的 AI 行業(yè)將會(huì)變成什么樣子?

想象一個(gè)沒(méi)有 PyTorch 的世界,并且 Transformer、ResNet、Mask-RCNN、FPN、SAM、DINO、seq2seq、wav2vec、內(nèi)存增強(qiáng)網(wǎng)絡(luò)、Tansformers、BatchNorm、LayerNorm、Adam、去噪自動(dòng)編碼器、聯(lián)合嵌入架構(gòu)以及大量的 SSL 方法都被施加專利,AI 行業(yè)又會(huì)變成什么樣子?

圖片

圖源:https://twitter.com/ylecun/status/1735704308891484248

LeCun 觀點(diǎn)引起更多人共鳴,有人認(rèn)為,「如果谷歌不開(kāi)源 Transformers,OpenAI 甚至發(fā)明不了 GPT。真是虛假的『OpenAI』。」

圖片

圖源:https://twitter.com/ai_for_success/status/1735705570500640871

LeCun 還不忘說(shuō)一句,「ChatGPT 的構(gòu)建也離不開(kāi) PyTorch。」

這就出現(xiàn)了一個(gè)值得探討的問(wèn)題,為什么像 OpenAI、Anthropic 這樣的公司不愿意開(kāi)源大模型權(quán)重呢?外媒 VentureBeat 撰寫(xiě)了一篇深度長(zhǎng)文,采訪了一些高管人士,剖析了個(gè)中緣由。

我們知道,在機(jī)器學(xué)習(xí)尤其是深度神經(jīng)網(wǎng)絡(luò)中,模型權(quán)重被認(rèn)為至關(guān)重要,它們是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和做出預(yù)測(cè)的機(jī)制。訓(xùn)練后權(quán)重的最終值決定了模型性能。

同時(shí),非盈利機(jī)構(gòu)蘭德公司的一項(xiàng)研究指出,雖然權(quán)重不是大模型需要保護(hù)的唯一組成部分,但它們與模型的大量計(jì)算、收集和處理的訓(xùn)練數(shù)據(jù)和算法優(yōu)化息息相關(guān)。獲取權(quán)重可以讓惡意行為者以非常小的訓(xùn)練成本來(lái)利用完整的模型。

圖片

論文地址:https://www.rand.org/pubs/working_papers/WRA2849-1.html

大模型公司更加注重權(quán)重安全。Jason Clinton 是 Anthropic 首席信息安全官,他的主要任務(wù)是保護(hù)自家模型 Claude 的 TB 級(jí)權(quán)重文件免遭他人之手?!肝铱赡軐⒆约阂话霑r(shí)間用來(lái)保護(hù)權(quán)重文件。這是我們最為關(guān)注和優(yōu)先考慮的事情,也是投入資源最多的地方」,他在 VentureBeat 的采訪中這樣說(shuō)道。

模型權(quán)重可不能落入「壞人」之手

Jason Clinton 強(qiáng)調(diào),有人認(rèn)為公司對(duì)模型權(quán)重的擔(dān)憂是因?yàn)檫@些權(quán)重代表著極高價(jià)值的知識(shí)產(chǎn)權(quán)。其實(shí)不然,Anthropic 更重要的考慮在于防止這些強(qiáng)大技術(shù)落入「壞人」之手,產(chǎn)生不可估量的負(fù)面影響。

對(duì)誰(shuí)能獲取基礎(chǔ)模型權(quán)重深表?yè)?dān)憂的遠(yuǎn)不止克林頓一人。事實(shí)上,白宮最近發(fā)布的關(guān)于「安全、可靠地開(kāi)發(fā)和使用人工智能」的行政命令就要求基礎(chǔ)模型公司向聯(lián)邦政府提供文件,報(bào)告模型權(quán)重的所有權(quán)、占有情況以及采取的保護(hù)措施。

OpenAI 也表達(dá)了類似的立場(chǎng)。在 2023 年 10 月的一篇博文中,OpenAI 表示正在繼續(xù)投資網(wǎng)絡(luò)安全和內(nèi)部威脅防護(hù)措施,以保護(hù)專有和未發(fā)布的模型權(quán)重。

40 種攻擊向量正在被執(zhí)行

Rand 的報(bào)告《Securing Artificial Intelligence Model Weights》由 Sella Nevo 和 Dan Lahav 共同撰寫(xiě)。報(bào)告強(qiáng)調(diào)了人工智能模型權(quán)重面臨的安全威脅和未來(lái)風(fēng)險(xiǎn)。

Nevo 在接受 VentureBeat 采訪時(shí)表明,當(dāng)前最大的擔(dān)憂不是這些模型現(xiàn)在能做什么,而是未來(lái)可能發(fā)生什么,尤其是在國(guó)家安全方面,例如被用于開(kāi)發(fā)生物武器的可能性。

該報(bào)告的目的之一是了解行為者可能采用的攻擊方法,包括未授權(quán)的物理訪問(wèn)、破壞現(xiàn)有憑證和供應(yīng)鏈攻擊等。報(bào)告最終確定了 40 種不同的攻擊向量,并強(qiáng)調(diào)它們不是理論上的,而是已有證據(jù)表明它們正在被執(zhí)行,甚至在某些情況下已被廣泛部署。

開(kāi)放基礎(chǔ)模型的風(fēng)險(xiǎn)

需要注意的是,并非所有專家都能在人工智能模型權(quán)重泄露的風(fēng)險(xiǎn)程度以及需要限制的程度上達(dá)成一致,尤其是在涉及開(kāi)源人工智能時(shí)。這再次印證了人工智能領(lǐng)域治理的復(fù)雜性和諸多挑戰(zhàn)。

斯坦福大學(xué)人工智能學(xué)院政策簡(jiǎn)報(bào)《Considerations for Governing Open Foundation Models》強(qiáng)調(diào),盡管開(kāi)放基礎(chǔ)模型(即權(quán)重廣泛可用的模型)可以對(duì)抗市場(chǎng)集中、促進(jìn)創(chuàng)新并提高透明度,但其相對(duì)于封閉模型或現(xiàn)有技術(shù)的邊際風(fēng)險(xiǎn)尚不明確。

簡(jiǎn)報(bào)鏈接:https://hai.stanford.edu/issue-brief-considerations-governing-open-foundation-models

這份簡(jiǎn)報(bào)以事實(shí)為基礎(chǔ),沒(méi)有刻意煽動(dòng)恐懼,得到了人工智能治理高級(jí)顧問(wèn) Kevin Bankston 的「好評(píng)」。

圖片

該簡(jiǎn)報(bào)以 Meta 的 Llama 2 為例,該模型于 7 月發(fā)布,其模型權(quán)重廣泛可用,使得下游修改和審查成為可能。雖然 Meta 公司曾承諾確保其未發(fā)布模型權(quán)重的安全,并限制能夠訪問(wèn)模型權(quán)重的人員范圍,但在 2023 年 3 月 Llama 的模型權(quán)重泄露還是讓人印象深刻。

喬治城大學(xué)人工智能評(píng)估高級(jí)研究員 Heather Frase 指出,開(kāi)源軟件和代碼歷來(lái)都非常穩(wěn)定和安全,因?yàn)樗梢砸揽恳粋€(gè)龐大的社區(qū)。在強(qiáng)大的生成式人工智能模型出現(xiàn)之前,普通的開(kāi)源技術(shù)造成危害的幾率也十分有限。她提到,與傳統(tǒng)的開(kāi)源技術(shù)不同,開(kāi)源模型權(quán)重的風(fēng)險(xiǎn)在于,最可能受到傷害的不是用戶,而是被故意當(dāng)作傷害目標(biāo)的人,例如深度偽造騙局的受害者。

安全感通常來(lái)自開(kāi)放

不過(guò),也有其他人表達(dá)了相反的觀點(diǎn)。在接受 VentureBeat 采訪時(shí),Hugging Face 機(jī)器學(xué)習(xí)工程師 Nicolas Patry 強(qiáng)調(diào),運(yùn)行任務(wù)程序固有的風(fēng)險(xiǎn)同樣適用于模型權(quán)重,但并不意味著應(yīng)該封閉。

當(dāng)談到開(kāi)源模型時(shí),他們的想法是開(kāi)放給盡可能多的人,比如最近 Mistral 的開(kāi)源大模型。Nicolas Patry 認(rèn)為,安全感通常來(lái)自開(kāi)放,透明意味著更安全,任何人都可以查看它。封閉的安全會(huì)讓人們不清楚你在做什么。

VentureBeat 同樣采訪了開(kāi)源框架 PyTorch Lightning 背后公司 Lightning AI 的首席執(zhí)行官 William Falcon,他認(rèn)為如果公司擔(dān)心模型泄露,那就為時(shí)已晚。開(kāi)源社區(qū)追趕的速度難以想象,并且開(kāi)放研究可以衍生當(dāng)前 AI 網(wǎng)絡(luò)安全所需的各種工具。在他看來(lái),模型開(kāi)放程度越高,能力越民主化,可以開(kāi)發(fā)更好的工具來(lái)對(duì)抗網(wǎng)絡(luò)安全威脅。

對(duì)于 Anthropic 而言,該公司一方面尋求支持領(lǐng)域研究,另一方面要保證模型權(quán)重的安全,比如聘用優(yōu)秀的安全工程師。

原文鏈接:https://venturebeat.com/ai/why-anthropic-and-openai-are-obsessed-with-securing-llm-model-weights/

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-11-24 17:01:30

模型推理

2025-01-09 08:01:10

2015-10-13 10:41:39

大數(shù)據(jù)厚數(shù)據(jù)

2021-05-16 07:44:01

Hadoop大數(shù)據(jù)HDFS

2013-08-05 11:15:45

GoogleNexus系列

2013-03-01 11:09:12

天音通信

2015-02-03 10:32:19

軟件定義存儲(chǔ)SDS混合云

2020-04-28 10:35:14

數(shù)據(jù)安全

2021-09-03 08:44:51

內(nèi)核模塊Linux社區(qū)

2013-01-18 14:00:59

VMware

2016-09-06 17:21:00

APM聽(tīng)云用戶體驗(yàn)

2021-08-04 22:59:19

區(qū)塊鏈汽車技術(shù)

2016-05-03 15:12:35

數(shù)據(jù)科學(xué)

2013-09-23 16:15:15

輕應(yīng)用超級(jí)App何小鵬

2021-09-02 00:15:01

區(qū)塊鏈農(nóng)業(yè)技術(shù)

2024-11-05 19:10:17

2024-03-12 13:22:00

訓(xùn)練數(shù)據(jù)

2013-03-25 14:10:02

Windows Blu

2015-06-04 10:05:30

大數(shù)據(jù)分析認(rèn)知計(jì)算沃森
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)