是兄弟就來找ChatGPT漏洞,OpenAI:最高賞金2萬刀
現(xiàn)在,給ChatGPT找漏洞有錢掙了。
今天凌晨,OpenAI宣布開啟漏洞賞金計(jì)劃 :
報(bào)告ChatGPT漏洞,可以獲得最高2萬美元現(xiàn)金獎(jiǎng)勵(lì)。
具體來說,OpenAI將與漏洞反饋平臺(tái)Bugcrowd展開合作,收集人們?cè)谑褂闷洚a(chǎn)品過程中發(fā)現(xiàn)的bug。
發(fā)現(xiàn)并通過該平臺(tái)向其報(bào)告漏洞,可獲得現(xiàn)金獎(jiǎng)勵(lì):
我們會(huì)視漏洞的嚴(yán)重程度和影響范圍給予現(xiàn)金獎(jiǎng)勵(lì)。嚴(yán)重性較低的漏洞將會(huì)被給予200美元,而對(duì)于特殊的漏洞,獎(jiǎng)金的上限是2萬美元。我們十分重視您的貢獻(xiàn),并將致力于(向公眾)公布您的努力成果。
具體而言,用戶反饋的漏洞將按照Bugcrowd評(píng)級(jí)分類法進(jìn)行分級(jí)。
OpenAI坦言,漏洞的出現(xiàn)無法避免:
OpenAI的使命是創(chuàng)造有利于所有人的人工智能系統(tǒng)。為此,我們?cè)谘芯亢凸こ谭矫孢M(jìn)行了大量投資,以確保我們的人工智能系統(tǒng)安全可靠。然而,和其他復(fù)雜的技術(shù)一樣,我們清楚(我們的產(chǎn)品)可能會(huì)出現(xiàn)漏洞和缺陷。
OpenAI安全部門負(fù)責(zé)人Matthew Knight解釋說,發(fā)現(xiàn)漏洞的過程需要廣大網(wǎng)友提供幫助:
這一舉措是我們致力于開發(fā)安全和先進(jìn)的人工智能的一個(gè)重要組成部分。在我們創(chuàng)造安全、可靠和值得信賴的技術(shù)和服務(wù)時(shí),我們希望得到您的幫助。
他們還向全網(wǎng)承諾,在收到反饋后第一時(shí)間修復(fù)漏洞,并對(duì)提交者進(jìn)行表彰。
新的副業(yè)出現(xiàn)了?
體驗(yàn)過ChatGPT的網(wǎng)友應(yīng)該都知道,它的表現(xiàn)不總是那么令人滿意。
問題稍難一些,ChatGPT就會(huì)被繞暈,甚至給出讓人啼笑皆非的答復(fù)。
這么一看,找bug可太簡(jiǎn)單了,那豈不是賺大錢的機(jī)會(huì)來了?
不要高興太早。
在公告中,OpenAI已經(jīng)表明,出于修復(fù)可行性的考量,模型本身的問題并不在此次計(jì)劃的范疇之內(nèi)。
而讓其進(jìn)行說壞話、做壞事、生成惡意代碼等繞過安全措施或產(chǎn)生機(jī)器幻覺的行為,都屬于模型本身的問題。
更不必說錯(cuò)誤或者不精確的回答了。
OpenAI希望收集的有關(guān)ChatGPT的漏洞,主要是關(guān)于其賬號(hào)、認(rèn)證、訂閱、支付、會(huì)員和插件等問題。
對(duì)于普通用戶來說,從這些角度發(fā)掘漏洞就有些難度了。
安全問題不容小覷
前文中提到的繞過安全限制等問題是從業(yè)者十分關(guān)切的。
人工智能程序內(nèi)置了防止其給出危險(xiǎn)或帶有冒犯性的言論的安全限制。
但通過一些途徑,這些限制可以被繞過或突破。
這種現(xiàn)象被從業(yè)者形象地稱之為“越獄”。
如詢問ChatGPT如何做一些違法之事時(shí),事先聲明要求它“扮演”壞人。
在人工智能領(lǐng)域,有一群人專門對(duì)“越獄”進(jìn)行研究,以完善安全措施。
盡管OpenAI不收集模型本身的漏洞,但這并不代表他們不重視這方面的問題。
搭載GPT-4.0模型的新版本ChatGPT便有著更為嚴(yán)格的限制措施。
網(wǎng)友:為啥不讓ChatGPT自己找bug
OpenAI的賞金計(jì)劃一公布,就吸引了不少網(wǎng)友圍觀。
這不,第一時(shí)間就有網(wǎng)友舉手表示自己已經(jīng)發(fā)現(xiàn)了一個(gè)bug:
報(bào)告,3小時(shí)內(nèi)只能問ChatGPT 25個(gè)問題,這是個(gè)bug!
還有網(wǎng)友調(diào)侃,難道不應(yīng)該讓ChatGPT自己給自己debug嗎?
正經(jīng)說起來,則有網(wǎng)友對(duì)危險(xiǎn)言論問題不在收集范圍表示了擔(dān)憂:
不過,大多數(shù)網(wǎng)友還是資瓷的,并表達(dá)了一波期待:
那么,你對(duì)給ChatGPT找漏洞這事兒,有興趣嗎?
參考鏈接:
[1]???https://openai.com/blog/bug-bounty-program???
[2]???https://bugcrowd.com/openai???
[3]???https://www.bloomberg.com/news/articles/2023-04-11/openai-will-pay-people-to-report-vulnerabilities-in-chatgpt???
[4]???https://www.bloomberg.com/news/articles/2023-04-08/jailbreaking-chatgpt-how-ai-chatbot-safeguards-can-be-bypassed??