DeepFake不能再騙人!美七大科技巨頭聯(lián)名,給AI生成內(nèi)容加水印
最近,美國以O(shè)penAI、谷歌為首的七家科技巨頭公司聯(lián)合宣布——
為所有AI生成的內(nèi)容中嵌入水印。
或許,天天被DeepFake騙的團團轉(zhuǎn)的日子,要一去不復返了!
七大巨頭聯(lián)手給AI加水印
還記得十幾年前,總有人在各種論壇各種吹噓。
別人不信,就會評論,無圖無真相。
再往后,發(fā)圖片視頻都不一定100%可信,因為眾所周知,圖片可以p,視頻可以剪輯。
再再往后,生成式AI爆火,別說圖片了,視頻能生成,音頻能生成,文本能生成。
都不是剪輯、p圖那么簡單,而是從0到1直接生成,極盡絲滑。
我不禁想問,這世上還有真的東西嗎?。舛独洌?/span>
好在,這種情況要得到改善了。
OpenAI、微軟、谷歌、Meta、亞馬遜、Anthropic和Inflection等七家科技巨頭公司宣布,將會開發(fā)出一種水印技術(shù),添加在所有由AI生成的內(nèi)容上面。
美國政府表示,這項技術(shù)將有助于在未來更安全地分享AI生成的文本、圖像、音頻,以及視頻,還不會在真實性上誤導別人。
目前,對于不同形式的生成品分別如何嵌入水印這一點,尚不明確。
但功能是確定的——嵌入后,用戶就可以知道當前生成品的來歷,是哪個生成式AI工具搞出來的。
而真正讓七巨頭做出行動的原因,還是用戶和政策制定者們極高的關(guān)注程度。
上面那張?zhí)乩势毡蛔サ腄eepFake(熟悉的朋友肯定都知道,是個套圖),就是由Midjourney前段時間生成的。
雖說那張圖片不管從內(nèi)容還是構(gòu)圖來說,都假的離譜,但是Midjourney還是為此封禁了一些賬號。
理由就是傳播虛假照片。
那些圖片的作者就曾表示,如果當時有個水印,估計后果就不會有那么嚴重了。
畢竟,生成搞笑梗圖從動機上來講絕大部分就是為了好玩。
可是梗圖好玩,假音頻假視頻可就不好玩了。
今年已經(jīng)看過太多新聞,AI語音生成軟件偽造家人的音頻,騙錢騙財。
據(jù)FBI統(tǒng)計,AI生成的DeepFake在勒索案中已經(jīng)成為了不可忽視的因素,尤其是跟性相關(guān)的勒索。
更不用說屢屢登上熱搜的GPT寫論文了。
只能說,DeepFake已經(jīng)進入到多模態(tài)的方方面面,而水印的添加可以天然隔開真和假,構(gòu)筑起一道障壁,杜絕混淆視聽。
OpenAI在官博中表示,將會研發(fā)一種水印機制,加入到視頻或音頻中。還會開發(fā)一種檢測工具,判斷特定內(nèi)容是否含有系統(tǒng)創(chuàng)建的工具或API。
谷歌也表示,除了水印以外,還會有其它創(chuàng)新型技術(shù),把關(guān)信息推廣。
拜登政府還將創(chuàng)建一個基金會,確保對于AI的所有發(fā)展,都要先有承諾和保證,再推廣落地,避免風險。
科技巨頭公司還同意在AI系統(tǒng)發(fā)布前對其進行內(nèi)部和外部的雙重測試,并加大對網(wǎng)絡安全的投資,在整個行業(yè)共享信息,以幫助降低AI的風險
Meta的全球事務總裁Nick Clegg也呼應了OpenAI,稱科技公司的承諾是確保為AI建立負責任的護欄的重要一步。
簽署自愿承諾書
2023年7月21日,白宮主導并召集了七家領(lǐng)先的人工智能公司——亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和 OpenAI,一起商討如何實現(xiàn)「人工智能技術(shù)安全、可靠和透明的發(fā)展」。
會后這些公司均已與白宮達成一致,并發(fā)表了自愿承諾書。
這些公司做出的承諾,強調(diào)了人工智能未來發(fā)展的三個原則:安全、保障、信任。
這標志著在開發(fā)負責任的人工智能上,人類邁出了關(guān)鍵的一步。
承諾書的內(nèi)容大概包括:
1. 產(chǎn)品公開前確保其安全性
1)發(fā)布人工智能系統(tǒng)前,對人工智能的內(nèi)部、外部進行安全測試。(2家公司承諾)
2)與行業(yè)、政府、民間社會和學界共享管理人工智能風險的信息。(全部公司通過)
2. 搭建「安全第一」的人工智能系統(tǒng)
3)投資網(wǎng)絡安全和內(nèi)部威脅防護措施,保護專有與未發(fā)布模型的權(quán)重,僅在考慮安全風險時公開權(quán)重。(2家公司承諾)
4)建立強大的報告機制,鼓勵第三方對人工智能系統(tǒng)中的漏洞即時反饋,迅速發(fā)現(xiàn)并解決問題。(2家公司承諾)
3. 贏得公眾的信任
5)開發(fā)強大的技術(shù)機制,確保用戶能夠識別人工智能生成的內(nèi)容,如水印系統(tǒng)。(2家公司承諾)
6)公開人工智能系統(tǒng)的功能、局限性以及適用范圍,警示人工智能的安全風險和社會風險等。(2家公司承諾)
7)優(yōu)先研究人工智能系統(tǒng)帶來的社會風險,如避免有害的偏見、歧視以及保護隱私。
并推出專門的人工智能來減輕這些危險。(2家公司承諾)
8)開發(fā)和部署前沿人工智能系統(tǒng),解決如從癌癥預防到緩解氣候變化等社會問題和挑戰(zhàn)。(2家公司承諾)
OpenAI在21日當天也在網(wǎng)站上發(fā)布了自愿承諾書:https://openai.com/blog/moving-ai-governance-forward
內(nèi)容與白宮中的聲明基本一致,但具體闡述更加細致。并特意指出了承諾書中的特定模型的所指——僅適用于總體上比當前行業(yè)前沿更強大的生成模型。
例如,總體上比任何當前發(fā)布的模型更強大的模型,包括 GPT-4、Claude 2、PaLM 2、Titan 以及圖像生成DALL-E 2等。
如何加水印
前段時間,來自馬里蘭大學的研究人員提出了一種高效的水印技術(shù),可以讓合成文本在很短的token跨度(僅需25個token)內(nèi)被檢測到,同時誤報率(將人類文本誤判為機器生成)極低。
水印是文本中的隱藏模式,對人類來說是不可察覺的,但可以通過算法識別為合成文本。
論文地址:https://arxiv.org/pdf/2301.10226.pdf
眾所周知,AI語言模型的工作原理是對逐個單詞進行預測和生成。
在每個單詞之后,水印算法會隨機將語言模型的詞匯分成「綠色列表」和「紅色列表」,然后提示模型選擇綠色列表中的單詞。
在一段文字中,如果綠色列表中的單詞越多,那么這段文字很可能是由機器生成的。而由人寫的文字往往會包含更隨機的單詞組合。
舉個栗子,對于單詞「美麗」,水印算法可以將「花」歸類為綠色,將「蘭花」歸類為紅色。采用帶有水印算法的AI模型則更有可能使用「花」這個詞,而不是「蘭花」。
概括來說,水印算法所具備的特性如下:
- 水印可以在沒有任何模型參數(shù)知識或訪問語言模型API的情況下,通過算法進行檢測。這一特性使得檢測算法可以開源,即使模型不是。這也使得檢測變得廉價且快速,因為無需加載或運行LLM。
- 可以使用標準語言模型生成帶有水印的文本,無需重新訓練。
- 水印可以從生成文本的連續(xù)部分中檢測出來。這樣,即使只使用生成的一部分來創(chuàng)建更大的文檔,水印仍然是可檢測的。
- 如果不修改相當比例的生成token,就無法去除水印。
- 可以用嚴格的統(tǒng)計方法來衡量水印是否被檢測到。
雖然馬里蘭大學提出的方法,仍有一些問題尚未解決。例如,在流媒體環(huán)境下,或者當短跨度的水印文本位于較長的非水印文本中時,測試水印的最佳方法是什么?
但研究人員認為,他們實驗的結(jié)果足以證實,水印可以成為對抗惡意使用生成模型的實用工具。
至于剩下的問題,就留給未來的研究了。