自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI死里逃生?加州AI法案剛剛被斃,LeCun李飛飛吳恩達狂喜

人工智能 新聞
喜大普奔!就在剛剛,加州州長宣布:否決加州AI限制法案。LeCun李飛飛吳恩達激動地奔走相告,額手稱慶。而強烈支持法案的Bengio和Hinton則對此保持沉默。OpenAI、谷歌、Meta紛紛逃過大劫。

重磅!

今天凌晨,美加州州長Gavin Newsom正式宣告:否決SB-1047法案!

圖片

對于全世界開發(fā)者們來說,SB-1047法案取消,意味著Meta、谷歌等大廠的開源模型,再次繼續(xù)可用。

這個決定可謂是眾望所歸。AI圈大佬們激動地奔走相告,在否決中出了大力的吳恩達、LeCun、李飛飛,則尤其開心。

圖片

圖片

加州州長否決意味著什么?

SB-1047法案就真的終結(jié)了。

「臭名昭著」的SB-1047規(guī)定,SB 1047將會通過追究開發(fā)者的責任,來防止AI系統(tǒng)造成大規(guī)模人員傷亡,或引發(fā)損失超過5億美元的網(wǎng)絡(luò)安全事件。

消息一出,就引來學界和業(yè)界巨大的反對聲浪。

要知道,全球50家頂尖GenAI企業(yè),有32家便扎根在加州,它們在定義AI未來起著關(guān)鍵作用。

加州辦公室新聞稿中介紹,過去一個月里,Gavin簽署了18個GenAI法案,卻唯獨否決了SB-1047。

圖片

在過去30天里,州長簽署了一系列法案,以打擊Deepfake內(nèi)容,以及保護表演者的數(shù)字肖像權(quán)等等

這項法案初衷是好的,但實際上存在一些嚴重的問題。

他表示,我認為這不是保護公眾免受AI帶來真正威脅的最佳方法。

圖片

SB-1047沒有考慮到AI系統(tǒng)是否部署在高風險環(huán)境中、是否涉及關(guān)鍵決策,或敏感數(shù)據(jù)使用。相反,法案對最基本的功能——部署大模型系統(tǒng),也應(yīng)用了嚴格的標準。

在SB-1047被否決的過程中,AI教母李飛飛起到的作用不容忽視。

斯坦福教授李飛飛開心地表示,自己能和StanfordHAI一起,為加州負責任的AI治理鋪平道路,深感榮幸。

圖片

AI泰斗吳恩達也感謝了李飛飛對于SB-1047的公開反對,稱她的努力能推動更理性的AI政策,從而保護研究和創(chuàng)新。

圖片

就在前幾天,SB-1047法案即將塵埃落定之際,吳恩達和LeCun還在焦急地奔走呼吁、發(fā)起投票,擔心一旦通過,開源AI和整個AI生態(tài)系統(tǒng)都會產(chǎn)生寒蟬效應(yīng)。

圖片

如今,全加州的AI公司們終于松了一口氣。

州長否決信:不予簽署

「本人謹此退回參議院法案1047,不予簽署?!?/span>

圖片

全文地址:https://www.gov.ca.gov/wp-content/uploads/2024/09/SB-1047-Veto-Message.pdf

在信中,州長承認,SB-1047對于AI部署可能帶來的威脅過于放大了。

而且,法案僅關(guān)注最昂貴的大規(guī)模模型,其實是給了公眾一種「錯誤的安全感」。

他指出,即使是較小的專有模型,可能也會一樣危險。

總之,法案對AI實施的監(jiān)管,是以「遏制利于公眾利益的創(chuàng)新」為代價的。

州長表示,法案對最基本的功能,也適用最嚴格的標準,這并不是保護公眾買免受AI技術(shù)威脅的最佳辦法。

而最好的解決辦法是,是一個不以AI系統(tǒng)和能力的實證發(fā)展軌跡分析為依據(jù)的方案。

圖片

AI大佬深惡痛絕

這樣的結(jié)局,對于除了Bengio、Hinton的絕大多數(shù)人,都可謂非常圓滿。

提到SB-1047,一眾大佬們是深惡痛絕。

事情的來龍去脈是這樣的。

去年,加州州長簽署了一項行政命令,強調(diào)加州面對GenAI態(tài)度要更加審慎,讓AI更加道德、透明、可信。

而今年2月,加州直接擬定了法案,名為《SB-1047前沿AI大模型安全創(chuàng)新法案》,對于大模型安全、透明的使用給出了更具體的條例。

圖片

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

然而,其中有多項不合理內(nèi)容,簡直是指名道姓地給某些公司卡脖子。

成本超1億的模型,得防止造成「重大傷害」

比如有一條規(guī)定,開發(fā)、訓練成本超1億美元,且浮點運算超過10^26次的大模型,一旦開源后被有人用來做非法的事,那么模型開發(fā)商也會受到嚴重處罰。

要知道,Meta的Llama 3模型,谷歌的Gemma模型等,都符合這個條件。

這個規(guī)定顯然極有爭議。

比如,如果有人入侵自動駕駛系統(tǒng)并導致事故,開發(fā)該系統(tǒng)的公司也要被追責嗎?

按照法案的說法,開發(fā)者需要評估其模型的衍生產(chǎn)品、防止他們可能造成的任何傷害,包括客戶微調(diào)模型、以其他方式修改模型(越獄)或與其他軟件組合。

然而一旦開源軟件發(fā)布,人們可以直接將模型下載到個人設(shè)備上,因此開發(fā)者根本無從得知其他開發(fā)者或客戶的具體操作。

圖片

另外,法案中也有多處定義模糊。

比如AI模型的「關(guān)鍵傷害」,被描述為大量傷亡、超過5億美元的損失或其他「同等嚴重」的傷害,但開發(fā)者在什么條件下要被追責?要承擔何種責任?

法案對此都語焉不詳。

并且,法案適用于花費超過1億美元訓練的AI模型,或花費超過1000萬美元微調(diào)現(xiàn)有模型的開發(fā)者,也就讓許多小型科技公司落入被打擊范圍。

SB-1047還有一些不合理規(guī)定,比如如果公司開放模型給其他國家使用,還得提交客戶的所有資料,包括客戶的身份證、信用卡號、賬號等。

開發(fā)者還必須創(chuàng)建能夠解決AI模型風險的測試程序,并且必須每年聘請第三方審計員來評估其AI安全實踐。

對于那些基于模型打造的AI產(chǎn)品,則需要制定相應(yīng)的安全協(xié)議來防止濫用,包括一個關(guān)閉整個AI模型的「緊急停止」按鈕。

法案被詬?。簩φ嬲娘L險視而不見

更多批評者認為,這個法案實在是過于杞人憂天了。

它不僅會阻礙AI的創(chuàng)新,而且對當今AI的安全性也沒有幫助。

更諷刺的是,法案用所謂的「緊急開關(guān)」預防世界末日,但對Deepfake、虛假信息等已出現(xiàn)的安全風險卻視而不見。

雖然后來的修正案在措辭上更加寬松,減少了加州政府追究AI實驗室責任的權(quán)力。

但即便如此,SB-1047也會給OpenAI、Meta、谷歌等大廠帶來不小的影響。

而對一些初創(chuàng)企業(yè)來說,這種打擊甚至會是毀滅性的。

如今塵埃落地,大公司和小初創(chuàng)們都可以長出一口氣了。

圖片

圖靈巨頭決裂

SB-1047,甚至讓圖靈三巨頭為此「決裂」。

LeCun、李飛飛、吳恩達為代表的大佬們,多次公開反對不滿。

圖片

圖片

圖片

甚至,LeCun還照搬了之前要求暫停AI研究時的原梗——請暫停AI立法六個月!

圖片

而圖靈三巨頭中的另外兩位——Yoshua Bengio和Geoffrey Hinton,卻出人意料地強烈支持這項法案通過。

甚至還覺得,現(xiàn)在的條款定得有些太過寬松了。

圖片

作為高級人工智能技術(shù)和政策研究人員,我們寫信表達對加州參議院法案1047的強烈支持。

SB 1047概述了對這種技術(shù)進行有效監(jiān)管的基本要求。它沒有實施許可制度,不要求公司在訓練或部署模型之前獲得政府機構(gòu)的許可,它依賴于公司自行評估風險,甚至在發(fā)生災(zāi)難時也不對公司嚴格追責。

相對于我們面臨的風險規(guī)模,這是一項相對寬松的立法。

取消該法案的基本措施將是一個歷史性的錯誤——這一錯誤將在一年內(nèi)變得更加明顯,因為下一代更強大的AI系統(tǒng)將被發(fā)布。

但Bengio和Hinton顯然不是主流。

總結(jié)來說,各家科技巨頭和一眾大佬對此的立場如下。

圖片

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-08-19 07:30:00

AI模型

2024-01-22 12:31:18

模型訓練

2024-08-27 16:58:24

2023-12-20 14:03:00

模型數(shù)據(jù)

2023-10-31 12:53:33

2023-06-05 09:58:52

AI無人機

2023-06-12 15:28:40

2023-04-03 10:15:28

計算機科學

2023-11-03 13:07:34

模型訓練

2023-03-30 13:47:11

AI

2021-05-27 15:30:24

計算機互聯(lián)網(wǎng) 技術(shù)

2022-02-13 17:27:59

吳恩達AI小數(shù)據(jù)

2020-12-25 15:34:35

AI 數(shù)據(jù)人工智能

2018-12-14 10:35:54

AI數(shù)據(jù)科技

2024-01-09 15:04:10

2024-11-11 08:30:00

2018-11-21 14:54:56

2023-11-01 14:11:00

模型數(shù)據(jù)

2024-01-02 13:17:00

模型訓練

2022-02-25 14:22:46

攻擊安全網(wǎng)絡(luò)
點贊
收藏

51CTO技術(shù)棧公眾號