自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

美政府欲阻天網(wǎng)降臨,GPT-5先做「末日測試」!

人工智能 新聞
不到一年時間實現(xiàn)活躍用戶數(shù)量翻倍的OpenAI正是炙手可熱,但最近因為和Anthropic共同簽署了一項政府安全協(xié)議又卷入非議。加上最近的SB 1047法案,AI安全領(lǐng)域正是沸反盈天。

雖然OpenAI經(jīng)常被曝出財務(wù)狀況不佳,5月就發(fā)布的Her也一直鴿到現(xiàn)在,但這些都不影響他們的「頂流」地位。

不僅最近要開啟新一輪融資,而且活躍用戶數(shù)相比去年11月已經(jīng)增長了一倍,每周有超過2億人使用ChatGPT。

雖然2022年底ChatGPT推出后,谷歌、微軟和Meta都推出了各自的AI聊天應(yīng)用,紛紛要在這個競爭激烈的市場中分一杯羹,但OpenAI的用戶數(shù)量依舊不斷增長。

根據(jù)The Information今天的報道,Meta的AI助手擁有4000萬日活躍用戶、至少4億月活躍用戶,相比OpenAI還是有不小的差距。

除了個人用戶,OpenAI還表示,92%的財富500強公司正在使用他們的產(chǎn)品。自7月份GPT-4o mini模型發(fā)布以來,API的使用量也翻了一番。

5月份的時候,GPT-4o剛發(fā)布,四大會計事務(wù)所之一普華永道就和OpenAI達成了合作協(xié)議,成為了ChatGPT的「經(jīng)銷商」,負責(zé)將相關(guān)軟件轉(zhuǎn)售給其他企業(yè),10萬名普華永道員工也將在工作中使用ChatGPT。

圖片

此外,Salesforce、Snap、Quizlet、Shopify等科技公司也和OpenAI展開了合作,以O(shè)penAI提供的API為基礎(chǔ),或者與ChatGPT進行整合,構(gòu)建自己的AI功能,涉及的應(yīng)用程序包括Slack、SnapChat、Shopify等。

管理咨詢巨頭Bain也表示,他們與OpenAI合作,將包括ChatGPT在內(nèi)的技術(shù)集成到自己開發(fā)的管理系統(tǒng)、研究和流程中。這個AI系統(tǒng)已經(jīng)被可口可樂用上了。

奧特曼在給科技媒體Axios的聲明中寫道,「使用OpenAI的工具已經(jīng)成為人們?nèi)粘I畹囊徊糠?,這些產(chǎn)品正在醫(yī)療保健和教育等領(lǐng)域產(chǎn)生真正的影響,無論是協(xié)助完成日常任務(wù)、解決難題或是釋放創(chuàng)造力。」

奧特曼特意cue到醫(yī)療健康領(lǐng)域,讓人不禁聯(lián)想到他本人和OpenAI的創(chuàng)業(yè)基金正在大力支持的初創(chuàng)Thrive AI Health,旨在提供個性化的AI健康教練。

然而,就在Axios的作者Shaun Ralston發(fā)推特宣布OpenAI的這一成就時,下面的置頂評論竟然是——「AI統(tǒng)治世界的邪惡計劃即將來臨」。

圖片

雖然「頂流」地位難以撼動,但這一年來,關(guān)于OpenAI的安全丑聞和非議就沒消停過。

最近曝出的一則新聞,還扯進了Anthropic這個向來「勢不兩立」的老對手。

OpenAI和Anthropic的「末日測試」

OpenAI和Anthropic分別簽署了一項史無前例的協(xié)議——在發(fā)布模型之前,會先拿給美國政府進行安全測試。

奧特曼也在今天發(fā)推確認(rèn)了這項合作。

圖片

我們很高興與美國人工智能安全研究所達成協(xié)議,對我們未來的模型進行預(yù)發(fā)布測試。

出于多種原因,我們認(rèn)為這在國家層面很重要。美國需要繼續(xù)領(lǐng)先!

美國商務(wù)部下轄的國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)在新聞稿中表示,Anthropic和OpenAI均簽署了一份諒解備忘錄,達成與美國人工智能安全研究所的「AI安全研究、測試和評估的正式合作」。

NIST表示,這是建立在AI公司對拜登政府做出的自愿安全承諾的基礎(chǔ)之上。

根據(jù)這項協(xié)議,AI安全研究所將在新模型公開發(fā)布之前及之后獲得訪問權(quán)限,并和相關(guān)公司展開合作研究。

這將確保AI領(lǐng)域的公共安全不只依賴于科技公司對安全風(fēng)險的評估能力,以及緩解這些風(fēng)險的方法。

美國AI安全研究所還將與英國的AI安全研究所合作,共同審查模型以標(biāo)記潛在安全風(fēng)險,向OpenAI和Anthropic提供關(guān)于其模型的潛在安全改進的反饋。

研究所主任Elizabeth Kelly稱這些協(xié)議為「幫助負責(zé)任地引導(dǎo)AI未來發(fā)展的重要里程碑,在她看來,安全是推動突破性技術(shù)創(chuàng)新的關(guān)鍵。

這一協(xié)議的出臺正值加州準(zhǔn)備通過SB 1047法案,反映了美國各級政府和立法者對AI安全的日益關(guān)注。

Anthropic聯(lián)創(chuàng):AI 安全對創(chuàng)新「至關(guān)重要」

SB 1047旨在規(guī)范AI在加州的開發(fā)和部署,已于周三在民主黨控制的州參議院上以壓倒性多數(shù)通過投票。

由于進行過修改,參議院還將在本周再次投票,決定是否通過修正案,但這被認(rèn)為只是「走個過場」。實際上,SB 1047只待州長批準(zhǔn),即可在2026年1月1日正式生效施行。

然而,加州州長Gavin Newsom尚未表明自己對法案的立場,在技術(shù)高管、風(fēng)險投資家、學(xué)者和議員們展開的激烈游說中,他必須在9月30日前做出決定。

圖片

該法案最具爭議的方面之一,是要求AI公司內(nèi)置一個「緊急停止開關(guān)」,以防止模型引入對公共安全的新威脅,尤其是模型「在人類有限監(jiān)督或干預(yù)」運行時。

據(jù)路透社報道,Anthropic是謹(jǐn)慎支持該法案的AI公司之一,聲稱在最后一輪修訂后,法規(guī)的潛在好處可能超過成本。

Anthropic CEO聯(lián)創(chuàng)兼CEO Dario Amodei在上周致州長的信中闡明了自己支持的理由。

他表示,盡管還不確定法案中「看起來令人擔(dān)憂或模棱兩可」的方面,但由于最近對法案的修改,Anthropic最初對該法案阻礙創(chuàng)新的擔(dān)憂已大大減少。

Anthropic的聯(lián)合創(chuàng)始人Jack Clark也對路透社表示,「安全、可信賴的AI對技術(shù)的正面影響至關(guān)重要?!?/span>

與Anthropic正好相反,OpenAI加入了反對者的陣營,并已經(jīng)展開了游說。

在致法案共同發(fā)起人、加州參議員Scott Wiener的信中,OpenAI的首席戰(zhàn)略官Jason Kwon表示,在對前沿AI模型的監(jiān)管中,應(yīng)該由美國政府率先帶頭,以考慮對國家安全和競爭力的影響。

可以看出,雖然Anthropic和OpenAI對SB 1047有截然不同的態(tài)度,但對于加強AI安全監(jiān)管似乎有相似的立場,這也能解釋為何這兩家公司會率先與美國AI安全研究所達成協(xié)議。

正如Jason Kwon對路透社所說的,「在負責(zé)任的AI開發(fā)方面,該研究所發(fā)揮著關(guān)鍵作用,希望我們的合作能為世界其他地區(qū)提供一個可借鑒的框架。」

加州AI法案,讓科技圈「虎軀一震」

被卷入SB 1047的利益相關(guān)方紛繁復(fù)雜,絕不止Anthropic和OpenAI這兩家公司,他們各自擔(dān)心和反對的理由也不盡相同。

除了Anthropic,該法案的其他支持者包括馬斯克、「圖靈三巨頭」之二Yoshua Bengio和Geoffrey Hinton、Gary Marus、UCB教授Stuart Russell以及其他一些警告AI失控風(fēng)險的團體。

反對者的陣營同樣強大,不僅有OpenAI、谷歌、Meta、HuggingFace等科技公司和各種風(fēng)投資本,還有AI社區(qū)的知名學(xué)者/KOL吳恩達和李飛飛。

圖片

SB 1047之所以舉足輕重,讓全美的科技圈都坐立不安,不僅是因為加州在AI行業(yè)的地位,更是由于美國的立法傳統(tǒng)——加州通過的法案有時會影響其他州的立法者。

不同于OpenAI的反對理由,很多批評者認(rèn)為,該法案過于「杞人憂天」——用所謂的「緊急開關(guān)」預(yù)防世界末日出現(xiàn),卻對Deepfake和虛假信息等眾多現(xiàn)有的安全風(fēng)險視而不見。

因此,該法案不僅會阻礙AI的創(chuàng)新,而且對當(dāng)今AI的安全性也沒有幫助。

更有爭議的一點是,SB 1047要求開發(fā)者監(jiān)控客戶對AI技術(shù)的使用情況,并在造成傷害時承擔(dān)巨額罰款——例如,如果有人入侵自動駕駛系統(tǒng)并導(dǎo)致事故,開發(fā)該系統(tǒng)的公司將被追責(zé)。

此外,法案中存在定義模糊的問題——AI模型「造成關(guān)鍵傷害,或?qū)嵸|(zhì)上提供關(guān)鍵傷害的能力」時,需要為此負責(zé)。

其中,「關(guān)鍵傷害」被描述為大量傷亡、超過5億美元的損失或其他「同等嚴(yán)重」的傷害;但開發(fā)者究竟在什么條件下會被追責(zé)、要承擔(dān)什么樣的責(zé)任,這些方面都是語焉不詳。

致力于支持小型科技初創(chuàng)的私人風(fēng)投a16z的普通合伙人Martin Casado敦促州長否決法案,希望他能聽取眾多專家的意見,因為法案的發(fā)起人Scott Wiener「基本上忽視了他們」。

吳恩達最近頻頻撰文呼吁,「還有時間阻止加州的SB 1047成為法律」。他認(rèn)為該法案的監(jiān)管重點出現(xiàn)了偏差,「我們應(yīng)該監(jiān)管有害的AI應(yīng)用,而不是通用AI模型?!?/span>

圖片

開源界十分擔(dān)憂

科技巨頭、風(fēng)投資本為自己的利益據(jù)理力爭時,也有批評者站出來說,SB 1047對開源且不以盈利為目的的開發(fā)者同樣不公平。

一個開源軟件組織的聯(lián)合創(chuàng)始人Chris Lengerich表示,這種不確定性意味著重大的財務(wù)影響,因為法案要求開發(fā)者雇用專門的審計員來檢查他們的工作。

「公司將花費大量資金和時間去理解這些術(shù)語的含義,但實際上沒有人真正清楚?!?/span>

法案的規(guī)定適用于花費超過1億美元訓(xùn)練的AI模型,或花費超過1000萬美元微調(diào)現(xiàn)有模型的開發(fā)者——很多小型的科技公司就會落入后者的范疇。

如果技術(shù)導(dǎo)致「對他人造成死亡或人身傷害」、「對財產(chǎn)造成損害」等,AI開發(fā)者將面臨的罰款將是開發(fā)費用10%~30%。

一家開源AI公司的政策研究員總結(jié)道,「這意味著對財產(chǎn)造成任何損害都可能導(dǎo)致數(shù)千萬美元的罰款,而不僅限于災(zāi)難性事件」。比如,黑客可能利用AI激活消防灑水器并造成水資源浪費。

除此之外,法案還要求開發(fā)者評估其模型的衍生產(chǎn)品并防止它們可能造成的任何傷害,包括客戶微調(diào)模型、以其他方式修改模型(如越獄)或?qū)⑵渑c其他軟件組合的情況。

但問題在于,一旦開源軟件發(fā)布,開發(fā)者通常無從得知其他開發(fā)者或客戶的具體操作,因為人們可以直接將模型下載到個人設(shè)備上。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-11-09 12:41:04

AI模型

2023-04-07 13:58:23

GPT-5AI

2024-01-22 13:57:00

模型訓(xùn)練

2024-08-28 13:00:42

2013-03-15 11:16:02

云平臺云開發(fā)機器學(xué)習(xí)

2024-01-18 12:30:03

2024-04-01 00:50:00

吳恩達智能體

2023-04-13 13:38:59

2024-01-09 12:53:16

模型訓(xùn)練

2023-06-08 07:58:29

2024-04-10 11:47:41

人工智能ChatGPT

2023-08-22 14:06:27

AI智能

2023-08-02 13:52:59

GPT-5模型

2024-01-22 13:06:00

AI訓(xùn)練

2023-08-10 15:22:48

人工智能OpenAI

2023-11-14 14:26:29

OpenAIGPT-5

2025-02-13 10:52:56

2024-06-12 13:24:32

2023-08-02 00:19:46

2025-02-10 01:00:00

OpenAIGPT-5GPT-4.5
點贊
收藏

51CTO技術(shù)棧公眾號