自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI:如GPT-5太危險(xiǎn),董事會(huì)有權(quán)阻止奧特曼發(fā)布

人工智能
OpenIA還透露已開(kāi)創(chuàng)一項(xiàng)新的研究,衡量風(fēng)險(xiǎn)如何隨模型規(guī)模擴(kuò)大而演變,提前預(yù)測(cè)風(fēng)險(xiǎn),嘗試解決“未知的未知”。

OpenAI發(fā)布新公告:董事會(huì)現(xiàn)在有權(quán)否決奧特曼的決定。

特別是針對(duì)GPT-5等前沿模型安全風(fēng)險(xiǎn)是否過(guò)高,是否對(duì)外發(fā)布等關(guān)鍵問(wèn)題。

圖片圖片

作為上個(gè)月內(nèi)訌的后果之一,總裁Greg Brockman與前首席科學(xué)家Ilya Sutskever已退出董事會(huì),公司管理層無(wú)人再兼任董事會(huì)成員,兩種角色完全分離。

現(xiàn)在公司管理層做決策,董事會(huì)有權(quán)推翻。

圖片圖片

上一屆董事會(huì)指責(zé)奧特曼“溝通不誠(chéng)懇”,并稱(chēng)這是解雇他的主要原因。

這次專(zhuān)門(mén)成立了安全顧問(wèn)團(tuán)隊(duì),每個(gè)月同時(shí)向公司管理層和董事會(huì)匯報(bào),確保所有決策者充分了解情況。

圖片圖片

除此之外,這份“前沿風(fēng)險(xiǎn)防范框架”還給OpenAI自己的技術(shù)開(kāi)發(fā)設(shè)立了諸多限制。如針對(duì)不同種類(lèi)的AI風(fēng)險(xiǎn),必須確保模型安全得分達(dá)標(biāo)后才能進(jìn)入下一個(gè)開(kāi)發(fā)階段。

有OpenAI員工表示:一般情況下不要相信公司說(shuō)的“價(jià)值觀”,除非他們真的花高昂代價(jià)展開(kāi)了行動(dòng)。

而且是增加內(nèi)部摩擦力、給競(jìng)爭(zhēng)對(duì)手超車(chē)機(jī)會(huì)這種對(duì)自己沒(méi)有明顯好處的事。

圖片圖片

但不少用戶依舊不買(mǎi)賬:以安全的名義,現(xiàn)在ChatGPT的表現(xiàn)就像個(gè)土豆。

圖片圖片

隨公告發(fā)布的還有一個(gè)動(dòng)態(tài)文檔,會(huì)不斷更新對(duì)風(fēng)險(xiǎn)的跟蹤、評(píng)估、預(yù)測(cè)和防范流程。

總之看起來(lái),對(duì)AI可能帶來(lái)災(zāi)難性風(fēng)險(xiǎn)這回事,他們是認(rèn)真的。

圖片圖片

三個(gè)安全團(tuán)隊(duì),分管當(dāng)下和未來(lái)

對(duì)于不同時(shí)間尺度的AI風(fēng)險(xiǎn),OpenAI成立了三個(gè)團(tuán)隊(duì)來(lái)分別應(yīng)對(duì)。

圖片圖片

安全系統(tǒng)團(tuán)隊(duì)(Safety Systems)負(fù)責(zé)當(dāng)下,減少現(xiàn)有模型如ChatGPT的濫用,由翁麗蓮領(lǐng)導(dǎo)。

圖片圖片

新成立準(zhǔn)備團(tuán)隊(duì)(Preparedness)負(fù)責(zé)不久的將來(lái),識(shí)別和管理GPT-5等正在開(kāi)發(fā)的前沿模型帶來(lái)的新風(fēng)險(xiǎn),由MIT教授Aleksander Madry領(lǐng)導(dǎo)。

圖片圖片

超級(jí)對(duì)齊團(tuán)隊(duì)(Superalignment)負(fù)責(zé)遙遠(yuǎn)的未來(lái),給超越人類(lèi)的超級(jí)智能安全性奠定基礎(chǔ),由Ilya SutskeverJan Leike領(lǐng)導(dǎo)。

圖片圖片

四種安全風(fēng)險(xiǎn),最高災(zāi)難級(jí)

對(duì)于開(kāi)發(fā)中的前沿模型,OpenAI主要跟蹤4個(gè)類(lèi)別的安全風(fēng)險(xiǎn):

  • 網(wǎng)絡(luò)安全
  • CBRN(化學(xué)、生物、放射性、核威脅)
  • 說(shuō)服能力
  • 模型自主性

評(píng)估期間將增加2倍的有效計(jì)算量把模型推向極限,并制作“記分卡”,分為“低、中、高、重大危險(xiǎn)”四個(gè)等級(jí)。

網(wǎng)絡(luò)安全風(fēng)險(xiǎn),定義為利用模型破壞計(jì)算機(jī)系統(tǒng)的機(jī)密性、完整性、可用性。

圖片圖片

CBRN風(fēng)險(xiǎn),專(zhuān)注于與模型輔助創(chuàng)建化學(xué)、生物、放射性和/或核威脅相關(guān)的風(fēng)險(xiǎn)。

圖片圖片

說(shuō)服風(fēng)險(xiǎn),側(cè)重于與說(shuō)服人們改變他們的信念或采取行動(dòng)有關(guān)的風(fēng)險(xiǎn)。

通常強(qiáng)大的說(shuō)服力很少見(jiàn),需要大量人力(例如一對(duì)一對(duì)話,或者精心制作的媒體內(nèi)容);然而,模型可以在能力范圍內(nèi)使所有內(nèi)容幾乎零成本生成。

圖片圖片

模型自主性風(fēng)險(xiǎn)就是比較科幻的那種,AI改進(jìn)自己、阻止自己被關(guān)機(jī)、逃出實(shí)驗(yàn)室了。

圖片圖片

采取緩解措施后,四個(gè)方面得分取最高值作為一個(gè)模型的總評(píng)分。

  • 只有緩解后風(fēng)險(xiǎn)評(píng)分為“中”或更低時(shí)才能部署
  • 只有緩解后風(fēng)險(xiǎn)評(píng)分為“高”或更低時(shí)才能進(jìn)一步開(kāi)發(fā)
  • 對(duì)緩解前為“高”或“重大風(fēng)險(xiǎn)”的模型采取額外安全措施

下圖僅為示例模板,不代表當(dāng)前模型的評(píng)分。

圖片圖片

此外準(zhǔn)備團(tuán)隊(duì)還將定期安全演習(xí),對(duì)業(yè)務(wù)和公司自身文化進(jìn)行壓力測(cè)試,發(fā)現(xiàn)緊急問(wèn)題并快速響應(yīng)。

也將延續(xù)開(kāi)發(fā)GPT-3.5和GPT-4時(shí)的傳統(tǒng),邀請(qǐng)第三方組成紅隊(duì),對(duì)模型做獨(dú)立評(píng)估。

最后,OpenIA還透露已開(kāi)創(chuàng)一項(xiàng)新的研究,衡量風(fēng)險(xiǎn)如何隨模型規(guī)模擴(kuò)大而演變,提前預(yù)測(cè)風(fēng)險(xiǎn),嘗試解決“未知的未知”。

參考鏈接:
[1]https://openai.com/safety/preparedness
[2]https://twitter.com/OpenAI/status/1736809603311280489

責(zé)任編輯:武曉燕 來(lái)源: 量子位
相關(guān)推薦

2023-12-19 07:24:37

2023-12-19 13:22:42

2023-11-18 09:29:55

AI數(shù)據(jù)

2024-03-20 12:43:57

2024-01-22 13:57:00

模型訓(xùn)練

2024-03-21 06:56:03

2023-11-23 14:00:07

OpenAI奧特曼

2023-11-20 08:30:47

AI科技

2023-11-21 16:46:44

2025-02-10 01:00:00

OpenAIGPT-5GPT-4.5

2023-06-08 07:58:29

2023-11-22 15:26:44

2025-02-13 10:52:56

2024-04-26 00:00:00

OpenAIGPT-5超算

2024-05-11 08:24:16

OpenAIAI語(yǔ)音助手人工智能

2023-11-20 07:33:41

OpenAI奧特曼

2024-03-11 16:14:54

2024-01-18 12:30:03

2023-11-30 17:34:55

OpenAI微軟

2025-02-13 09:10:47

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)