自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

太離譜!曝GPT-4o mini沒做安全測試就開慶功會!OpenAI嚴(yán)重違背政府協(xié)議,被立法者犀利追問12條 原創(chuàng)

發(fā)布于 2024-8-1 13:55
瀏覽
0收藏

編輯 | 伊風(fēng)

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

OpenAI又被曝違約了!這次是違反了對白宮的安全承諾。

去年夏天,OpenAI向美國政府承諾,將嚴(yán)格對其前沿的突破性技術(shù)進(jìn)行安全測試,以確保AI不會造成損害,比如教用戶制造生化武器或幫助黑客開發(fā)新型網(wǎng)絡(luò)攻擊。

然而,為了應(yīng)對OpenAI領(lǐng)導(dǎo)層設(shè)定的GPT-4o mni 5月份的“deadline”。OpenAI的安全團(tuán)隊(duì)中的一些成員感到壓力,并“加快”了對新模型的安全測試過程。

根據(jù)三位熟悉情況但因害怕被報復(fù)的匿名人士透露,在模型GPT-4o mni的測試開始之前,OpenAI就已經(jīng)在舉辦產(chǎn)品發(fā)布的慶功宴了!員工被邀請在OpenAI的舊金山辦公室中舉辦產(chǎn)品的慶祝派對。

根據(jù)其中一個舉報者說:“他們在不知道GPT-4o mni是否安全發(fā)布之前就計劃了發(fā)布后的派對?!边@位人士在匿名討論敏感公司信息時表示:“我們基本上在這個(確保AI安全的)過程中失敗了?!?/p>

OpenAI搶發(fā)產(chǎn)品也算是老傳統(tǒng)了。此前,OpenAI前董事會成員曾在采訪中透露,奧特曼沒有報告董事會,就直接發(fā)布了ChatGPT。而當(dāng)時的董事會成員甚至是瀏覽X才得到了該消息。

為了能進(jìn)一步約束OpenAI的安全行為,保障前沿AI巨頭可以將公共安全放在商業(yè)利益之上,參議院的民主黨人和一名獨(dú)立議員已公開致信奧特曼,犀利質(zhì)問公司在對待批評者方面的安全標(biāo)準(zhǔn)和實(shí)踐。

太離譜!曝GPT-4o mini沒做安全測試就開慶功會!OpenAI嚴(yán)重違背政府協(xié)議,被立法者犀利追問12條-AI.x社區(qū)圖片

完整文件地址:https://www.schatz.senate.gov/imo/media/doc/letter_to_openai.pdf

這封信件中最重要的部分之一(最先由《華盛頓郵報》獲得)是第9項(xiàng)內(nèi)容:“OpenAI是否承諾將其下一個基礎(chǔ)模型提供給美國政府機(jī)構(gòu)進(jìn)行預(yù)部署測試、審查、分析和評估?”

信中列出了另外11個需要解決的要點(diǎn),包括確保OpenAI承諾將其計算能力的20%用于安全研究,以及制定防止惡意行為者或外國對手竊取OpenAI產(chǎn)品的協(xié)議。

以下是信中12個問題的完整內(nèi)容:

1.OpenAI是否計劃遵守其先前公開承諾,將其計算資源的20%用于AI安全研究?

a.如果是,請描述OpenAI已經(jīng)采取的、正在采取的或?qū)⒉扇〉牟襟E,以將其計算資源的20%用于AI安全研究。

b. 如果不是,OpenAI用于AI安全研究的計算資源比例是多少?

2. 您能否確認(rèn)貴公司不會對現(xiàn)任和前任員工執(zhí)行永久性的非貶損協(xié)議?

3. 您能否進(jìn)一步承諾從雇傭協(xié)議中刪除任何可能用來懲罰公開提出公司實(shí)踐問題的員工的條款,例如防止員工在私人“要約收購”事件中出售其股權(quán)的能力?

a. 如果不能,請解釋原因,并說明任何內(nèi)部保護(hù)措施,以確保這些條款不會被用來在經(jīng)濟(jì)上阻止告密者。

4. OpenAI是否有程序讓員工提出有關(guān)網(wǎng)絡(luò)安全和安全的問題?這些問題提出后如何處理?

a. OpenAI員工是否提出過對公司網(wǎng)絡(luò)安全實(shí)踐的擔(dān)憂?

5. OpenAI現(xiàn)有或計劃實(shí)施哪些安全和網(wǎng)絡(luò)安全協(xié)議,以防止惡意行為者或外國對手竊取AI模型、研究或知識產(chǎn)權(quán)?

6. OpenAI供應(yīng)商行為準(zhǔn)則要求您的供應(yīng)商實(shí)施嚴(yán)格的非報復(fù)政策,并為告密者提供報告問題的渠道,而無需擔(dān)心報復(fù)。OpenAI本身是否遵循這些做法?

a. 如果是,請描述OpenAI的非報復(fù)政策和告密者報告渠道,以及這些渠道向誰報告。

7. OpenAI是否允許獨(dú)立專家在發(fā)布前測試和評估OpenAI系統(tǒng)的安全性和可靠性?

8. 公司目前是否計劃在其安全和安全測試、評估程序、流程和技術(shù)以及治理結(jié)構(gòu)(如其安全和安全委員會)中,邀請獨(dú)立專家參與安全和負(fù)責(zé)任的AI開發(fā)?

9. OpenAI是否承諾將其下一個基礎(chǔ)模型提供給美國政府機(jī)構(gòu)進(jìn)行預(yù)部署測試、審查、分析和評估?

10.OpenAI的發(fā)布后監(jiān)控實(shí)踐是什么?在最近發(fā)布的大型語言模型部署后,您的團(tuán)隊(duì)觀察到了哪些誤用模式和安全風(fēng)險?這些風(fēng)險必須達(dá)到多大規(guī)模,您的監(jiān)控實(shí)踐才有很大可能性捕捉到它們?請分享您的團(tuán)隊(duì)在發(fā)布后測量中的經(jīng)驗(yàn)教訓(xùn),以及為改進(jìn)您的政策、系統(tǒng)和模型更新而采取的步驟。

11.您計劃向公眾提供已部署模型的回顧性影響評估嗎?

12.請?zhí)峁┯嘘P(guān)OpenAI計劃如何實(shí)現(xiàn)其對拜登-哈里斯政府的自愿安全和安全承諾的文件。

參考鏈接:

1.https://www.washingtonpost.com/technology/2024/07/12/openai-ai-safety-regulation-gpt4/

2.https://www.schatz.senate.gov/imo/media/doc/letter_to_openai.pdf

本文轉(zhuǎn)載自??51CTO技術(shù)棧??,作者:伊風(fēng)

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
已于2024-8-1 13:56:22修改
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦