美政府欲阻天網(wǎng)降臨,GPT-5先做「末日測試」!
雖然OpenAI經(jīng)常被曝出財務(wù)狀況不佳,5月就發(fā)布的Her也一直鴿到現(xiàn)在,但這些都不影響他們的「頂流」地位。
不僅最近要開啟新一輪融資,而且活躍用戶數(shù)相比去年11月已經(jīng)增長了一倍,每周有超過2億人使用ChatGPT。
雖然2022年底ChatGPT推出后,谷歌、微軟和Meta都推出了各自的AI聊天應(yīng)用,紛紛要在這個競爭激烈的市場中分一杯羹,但OpenAI的用戶數(shù)量依舊不斷增長。
根據(jù)The Information今天的報道,Meta的AI助手擁有4000萬日活躍用戶、至少4億月活躍用戶,相比OpenAI還是有不小的差距。
除了個人用戶,OpenAI還表示,92%的財富500強公司正在使用他們的產(chǎn)品。自7月份GPT-4o mini模型發(fā)布以來,API的使用量也翻了一番。
5月份的時候,GPT-4o剛發(fā)布,四大會計事務(wù)所之一普華永道就和OpenAI達成了合作協(xié)議,成為了ChatGPT的「經(jīng)銷商」,負責(zé)將相關(guān)軟件轉(zhuǎn)售給其他企業(yè),10萬名普華永道員工也將在工作中使用ChatGPT。
此外,Salesforce、Snap、Quizlet、Shopify等科技公司也和OpenAI展開了合作,以O(shè)penAI提供的API為基礎(chǔ),或者與ChatGPT進行整合,構(gòu)建自己的AI功能,涉及的應(yīng)用程序包括Slack、SnapChat、Shopify等。
管理咨詢巨頭Bain也表示,他們與OpenAI合作,將包括ChatGPT在內(nèi)的技術(shù)集成到自己開發(fā)的管理系統(tǒng)、研究和流程中。這個AI系統(tǒng)已經(jīng)被可口可樂用上了。
奧特曼在給科技媒體Axios的聲明中寫道,「使用OpenAI的工具已經(jīng)成為人們?nèi)粘I畹囊徊糠?,這些產(chǎn)品正在醫(yī)療保健和教育等領(lǐng)域產(chǎn)生真正的影響,無論是協(xié)助完成日常任務(wù)、解決難題或是釋放創(chuàng)造力。」
奧特曼特意cue到醫(yī)療健康領(lǐng)域,讓人不禁聯(lián)想到他本人和OpenAI的創(chuàng)業(yè)基金正在大力支持的初創(chuàng)Thrive AI Health,旨在提供個性化的AI健康教練。
然而,就在Axios的作者Shaun Ralston發(fā)推特宣布OpenAI的這一成就時,下面的置頂評論竟然是——「AI統(tǒng)治世界的邪惡計劃即將來臨」。
雖然「頂流」地位難以撼動,但這一年來,關(guān)于OpenAI的安全丑聞和非議就沒消停過。
最近曝出的一則新聞,還扯進了Anthropic這個向來「勢不兩立」的老對手。
OpenAI和Anthropic的「末日測試」
OpenAI和Anthropic分別簽署了一項史無前例的協(xié)議——在發(fā)布模型之前,會先拿給美國政府進行安全測試。
奧特曼也在今天發(fā)推確認(rèn)了這項合作。
我們很高興與美國人工智能安全研究所達成協(xié)議,對我們未來的模型進行預(yù)發(fā)布測試。
出于多種原因,我們認(rèn)為這在國家層面很重要。美國需要繼續(xù)領(lǐng)先!
美國商務(wù)部下轄的國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)在新聞稿中表示,Anthropic和OpenAI均簽署了一份諒解備忘錄,達成與美國人工智能安全研究所的「AI安全研究、測試和評估的正式合作」。
NIST表示,這是建立在AI公司對拜登政府做出的自愿安全承諾的基礎(chǔ)之上。
根據(jù)這項協(xié)議,AI安全研究所將在新模型公開發(fā)布之前及之后獲得訪問權(quán)限,并和相關(guān)公司展開合作研究。
這將確保AI領(lǐng)域的公共安全不只依賴于科技公司對安全風(fēng)險的評估能力,以及緩解這些風(fēng)險的方法。
美國AI安全研究所還將與英國的AI安全研究所合作,共同審查模型以標(biāo)記潛在安全風(fēng)險,向OpenAI和Anthropic提供關(guān)于其模型的潛在安全改進的反饋。
研究所主任Elizabeth Kelly稱這些協(xié)議為「幫助負責(zé)任地引導(dǎo)AI未來發(fā)展的重要里程碑,在她看來,安全是推動突破性技術(shù)創(chuàng)新的關(guān)鍵。
這一協(xié)議的出臺正值加州準(zhǔn)備通過SB 1047法案,反映了美國各級政府和立法者對AI安全的日益關(guān)注。
Anthropic聯(lián)創(chuàng):AI 安全對創(chuàng)新「至關(guān)重要」
SB 1047旨在規(guī)范AI在加州的開發(fā)和部署,已于周三在民主黨控制的州參議院上以壓倒性多數(shù)通過投票。
由于進行過修改,參議院還將在本周再次投票,決定是否通過修正案,但這被認(rèn)為只是「走個過場」。實際上,SB 1047只待州長批準(zhǔn),即可在2026年1月1日正式生效施行。
然而,加州州長Gavin Newsom尚未表明自己對法案的立場,在技術(shù)高管、風(fēng)險投資家、學(xué)者和議員們展開的激烈游說中,他必須在9月30日前做出決定。
該法案最具爭議的方面之一,是要求AI公司內(nèi)置一個「緊急停止開關(guān)」,以防止模型引入對公共安全的新威脅,尤其是模型「在人類有限監(jiān)督或干預(yù)」運行時。
據(jù)路透社報道,Anthropic是謹(jǐn)慎支持該法案的AI公司之一,聲稱在最后一輪修訂后,法規(guī)的潛在好處可能超過成本。
Anthropic CEO聯(lián)創(chuàng)兼CEO Dario Amodei在上周致州長的信中闡明了自己支持的理由。
他表示,盡管還不確定法案中「看起來令人擔(dān)憂或模棱兩可」的方面,但由于最近對法案的修改,Anthropic最初對該法案阻礙創(chuàng)新的擔(dān)憂已大大減少。
Anthropic的聯(lián)合創(chuàng)始人Jack Clark也對路透社表示,「安全、可信賴的AI對技術(shù)的正面影響至關(guān)重要?!?/span>
與Anthropic正好相反,OpenAI加入了反對者的陣營,并已經(jīng)展開了游說。
在致法案共同發(fā)起人、加州參議員Scott Wiener的信中,OpenAI的首席戰(zhàn)略官Jason Kwon表示,在對前沿AI模型的監(jiān)管中,應(yīng)該由美國政府率先帶頭,以考慮對國家安全和競爭力的影響。
可以看出,雖然Anthropic和OpenAI對SB 1047有截然不同的態(tài)度,但對于加強AI安全監(jiān)管似乎有相似的立場,這也能解釋為何這兩家公司會率先與美國AI安全研究所達成協(xié)議。
正如Jason Kwon對路透社所說的,「在負責(zé)任的AI開發(fā)方面,該研究所發(fā)揮著關(guān)鍵作用,希望我們的合作能為世界其他地區(qū)提供一個可借鑒的框架。」
加州AI法案,讓科技圈「虎軀一震」
被卷入SB 1047的利益相關(guān)方紛繁復(fù)雜,絕不止Anthropic和OpenAI這兩家公司,他們各自擔(dān)心和反對的理由也不盡相同。
除了Anthropic,該法案的其他支持者包括馬斯克、「圖靈三巨頭」之二Yoshua Bengio和Geoffrey Hinton、Gary Marus、UCB教授Stuart Russell以及其他一些警告AI失控風(fēng)險的團體。
反對者的陣營同樣強大,不僅有OpenAI、谷歌、Meta、HuggingFace等科技公司和各種風(fēng)投資本,還有AI社區(qū)的知名學(xué)者/KOL吳恩達和李飛飛。
SB 1047之所以舉足輕重,讓全美的科技圈都坐立不安,不僅是因為加州在AI行業(yè)的地位,更是由于美國的立法傳統(tǒng)——加州通過的法案有時會影響其他州的立法者。
不同于OpenAI的反對理由,很多批評者認(rèn)為,該法案過于「杞人憂天」——用所謂的「緊急開關(guān)」預(yù)防世界末日出現(xiàn),卻對Deepfake和虛假信息等眾多現(xiàn)有的安全風(fēng)險視而不見。
因此,該法案不僅會阻礙AI的創(chuàng)新,而且對當(dāng)今AI的安全性也沒有幫助。
更有爭議的一點是,SB 1047要求開發(fā)者監(jiān)控客戶對AI技術(shù)的使用情況,并在造成傷害時承擔(dān)巨額罰款——例如,如果有人入侵自動駕駛系統(tǒng)并導(dǎo)致事故,開發(fā)該系統(tǒng)的公司將被追責(zé)。
此外,法案中存在定義模糊的問題——AI模型「造成關(guān)鍵傷害,或?qū)嵸|(zhì)上提供關(guān)鍵傷害的能力」時,需要為此負責(zé)。
其中,「關(guān)鍵傷害」被描述為大量傷亡、超過5億美元的損失或其他「同等嚴(yán)重」的傷害;但開發(fā)者究竟在什么條件下會被追責(zé)、要承擔(dān)什么樣的責(zé)任,這些方面都是語焉不詳。
致力于支持小型科技初創(chuàng)的私人風(fēng)投a16z的普通合伙人Martin Casado敦促州長否決法案,希望他能聽取眾多專家的意見,因為法案的發(fā)起人Scott Wiener「基本上忽視了他們」。
吳恩達最近頻頻撰文呼吁,「還有時間阻止加州的SB 1047成為法律」。他認(rèn)為該法案的監(jiān)管重點出現(xiàn)了偏差,「我們應(yīng)該監(jiān)管有害的AI應(yīng)用,而不是通用AI模型?!?/span>
開源界十分擔(dān)憂
科技巨頭、風(fēng)投資本為自己的利益據(jù)理力爭時,也有批評者站出來說,SB 1047對開源且不以盈利為目的的開發(fā)者同樣不公平。
一個開源軟件組織的聯(lián)合創(chuàng)始人Chris Lengerich表示,這種不確定性意味著重大的財務(wù)影響,因為法案要求開發(fā)者雇用專門的審計員來檢查他們的工作。
「公司將花費大量資金和時間去理解這些術(shù)語的含義,但實際上沒有人真正清楚?!?/span>
法案的規(guī)定適用于花費超過1億美元訓(xùn)練的AI模型,或花費超過1000萬美元微調(diào)現(xiàn)有模型的開發(fā)者——很多小型的科技公司就會落入后者的范疇。
如果技術(shù)導(dǎo)致「對他人造成死亡或人身傷害」、「對財產(chǎn)造成損害」等,AI開發(fā)者將面臨的罰款將是開發(fā)費用10%~30%。
一家開源AI公司的政策研究員總結(jié)道,「這意味著對財產(chǎn)造成任何損害都可能導(dǎo)致數(shù)千萬美元的罰款,而不僅限于災(zāi)難性事件」。比如,黑客可能利用AI激活消防灑水器并造成水資源浪費。
除此之外,法案還要求開發(fā)者評估其模型的衍生產(chǎn)品并防止它們可能造成的任何傷害,包括客戶微調(diào)模型、以其他方式修改模型(如越獄)或?qū)⑵渑c其他軟件組合的情況。
但問題在于,一旦開源軟件發(fā)布,開發(fā)者通常無從得知其他開發(fā)者或客戶的具體操作,因為人們可以直接將模型下載到個人設(shè)備上。